LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias

▸ Les 10 dernières parutions

24.04.2026 à 07:30

« Nous travaillons gratuitement comme liquidateur·ices nucléaires »

Kate Brown· Nassima Abdelghafour · Martin Denoun

Alors que l’on commémore les 40 ans de Tchernobyl, que les plans de relance du nucléaire civil se multiplient et que l’ombre de l’arme atomique plane toujours sur le monde, deux sociologues s’entretiennent avec l’historienne Kate Brown. Au menu : le mythe du confinement, les contaminations durables, les dépollutions impossibles et l’importance des contre-enquêtes.

L’article « Nous travaillons gratuitement comme liquidateur·ices nucléaires » est apparu en premier sur Terrestres.

Texte intégral (9976 mots)
Temps de lecture : 24 minutes

Un entretien avec Kate Brown réalisé par Nassima Abdelghafour et Martin Denoun, publié en partenariat avec Reporterre, où vous pouvez retrouver une version raccourcie de ce texte.

Deux ouvrages importants de l’historienne états-unienne Kate Brown, professeure d’histoire au Massachusetts Institute of Technology, ont été traduits en français ces dernières années. Tchernobyl par la preuve. Vivre avec le désastre et après et Plutopia. Une histoire des premières ville atomiques, sont parus respectivement en 2021 et 2024 chez Actes Sud. À la fois très documentés et rigoureux, si bien écrits qu’ils se lisent comme des romans, ces deux ouvrages nous plongent dans des catastrophes nucléaires massives. Plutopia nous fait découvrir des catastrophes discrètes et presque routinières, quand Tchernobyl par la preuve braque un nouvel éclairage sur une catastrophe bien connue qui n’en finit pas d’advenir. 

Dans Plutopia, Kate Brown suit les traces de deux villes-usines nucléaires créées dans les années 1940 dans des lieux reculés. C’est l’histoire de l’industrie naissante du plutonium, ce métal radioactif nécessaire à la fabrication de bombes atomiques, à la fois aux États-Unis et en URSS. Elle décrit comment ont été conçus, construits et gérés les sites de Hanford près de la ville de Richland, dans l’est de l’État de Washington aux Etats-Unis, et de Maïak près de la ville d’Ozersk, dans l’Oural, en URSS. L’usine de Hanford, cheville ouvrière du projet Manhattan, a produit le plutonium de la bombe larguée sur Nagasaki. La construction du complexe nucléaire de Maïak a démarré en 1945 et a marqué le début de la course aux armements nucléaires pendant la guerre froide. Pour ces raisons, les deux sites ont été construits et exploités secrètement. Au fil des années, des quantités gigantesques de polluants radiotoxiques sont déversées dans l’environnement autour des usines de plutonium. Et pourtant, Richland et Ozersk, les villes attenantes aux sites respectifs de Hanford et Maïak, sont des villes laboratoires où s’expérimentent à la fois le contrôle biomédical des habitant·es et la promesse d’une vie urbaine confortable et privilégiée. 


Plutopia” nous fait découvrir des catastrophes discrètes et presque routinières, quand “Tchernobyl par la preuve” braque un nouvel éclairage sur une catastrophe bien connue qui n’en finit pas d’advenir.

Dans Tchernobyl par la preuve, on suit Kate Brown dans une enquête passionnante et parfois rocambolesque sur les traces de l’accident de Tchernobyl et de ses suites. En exploitant des archives régionales qui n’avaient jamais été dépouillées, l’historienne raconte ce qu’un accident nucléaire implique : une gestion à l’aveugle face à des processus chimico-physiques échappant aux collectes de données classiques, des mensonges visant à masquer à la fois ce qui est su et ce qui est ignoré, des pollutions hétérogènes qui résistent aux schémas rassurants de gestion de crise, des contaminations qui s’accumulent au cours du temps et circulent très loin, des corps exposés qui souffrent en silence, et enfin des citoyen·nes qui se font enquêteur·ices et qui bâtissent des contre-savoirs essentiels pour mettre fin à ce silence.

Kate Brown. Photographie ©Annette Hornischer

Nassima Abdelghafour et Martin Denoun – Une même tension traverse Plutopia et Tchernobyl par la preuve : depuis ses débuts, l’industrie nucléaire a produit un discours public qui insiste sur le confinement de l’activité nucléaire dans des espaces clos et contrôlés. Dans les trois cas que vous analysez – les usines de Hanford et de Maïak, et l’accident de Tchernobyl – vous montrez que ce confinement est mis en échec non seulement par les radionucléides, mais aussi par les humains, qui circulent constamment entre ces espaces à accès restreint et l’extérieur.

Kate Brown – J’étais dans une épicerie haut-de-gamme, à Washington DC, la tête dans un congélateur, un compteur Geiger à la main. Je passais le compteur au-dessus d’un sac de myrtilles sauvages surgelées en réfléchissant à cette affaire de confinement de la contamination nucléaire. J’avais remarqué lors d’un séjour dans le nord de l’Ukraine – je travaillais sur les effets de Tchernobyl – que des milliers de personnes sortaient de forêts marécageuses autour de Tchernobyl avec des paniers pleins de myrtilles à la main. Ils les vendaient à des acheteurs qui attendaient dans des camions le long de la route. L’échelle industrielle de cette cueillette m’a intriguée. Avec mon assistante de recherche, Olha Martynyk, nous nous sommes procurées des paniers et sommes allées à la cueillette aussi. Nous avons apporté nos myrtilles dans l’entrepôt où une grossiste achetait les myrtilles apportées par les camions que nous avions vus. Chaque myrtille qu’elle testait était radioactive, certaines bien au-delà du seuil de 450 Becquerels le kilo, en vigueur en Ukraine, mais elle a tout acheté quand même. Je me suis demandée pourquoi, jusqu’à ce que j’apprenne que la norme dans l’Union Européenne et aux États-Unis est de 1200 Bq le kilo. En mélangeant les baies dépassant le seuil avec celles restant en dessous, la grossiste pouvait légalement vendre ses baies dans l’UE, bien que certaines myrtilles testées aient atteint 3000 Bq par kilo. Je découvrais avec étonnement cette dispersion délibérée et régulée des radiations de Tchernobyl par les marchés.

J’ai trouvé un rapport du département de la sécurité intérieure aux États-Unis sur un camion qui avait déclenché les compteurs Geiger à la frontière avec le Canada. Qu’y avait-il dans le camion ? Des myrtilles d’Ukraine. C’est cela qui m’a menée jusqu’au congélateur du magasin, pour constater à quel point les myrtilles de Tchernobyl étaient proches de mon propre petit-déjeuner. La vente de produits radioactifs ne relève pas d’une logique de confinement, mais de prolifération. Et elle est organisée par de nombreux acteurs qui expédient les myrtilles, airelles et champignons cueillis dans les forêts de Tchernobyl aux consommateur·ices partout dans le monde.

La vente de produits radioactifs est organisée par de nombreux acteurs qui expédient les myrtilles, airelles et champignons cueillis dans les forêts de Tchernobyl aux consommateur·ices partout dans le monde.

La récolte de myrtilles dans la région de Tchernobyl : les cueilleur·ses sous le regard de l’acheteuse. Photographie : Kate Brown.

Il s’agit là d’une prolifération organisée délibérément. Mais que se passe-t-il dans les cas où un confinement est vraiment mis en œuvre ?

Kate Brown – En effet, même lorsqu’il est appliqué, le confinement n’est pas la panacée. Quelques jours après l’accident de Tchernobyl en 1986, les dirigeants soviétiques ont tracé un cercle autour de la centrale et de la ville de Pripyat, et en ont interdit l’accès. La nouvelle « zone d’exclusion » avait pour objectif de préserver les gens de la contamination radioactive, invisible et imperceptible, qui se répandait selon des trajectoires irrégulières depuis le réacteur n° 4 encore en flammes. L’évacuation qui a suivi, ainsi que les patrouilles dans la zone d’exclusion ont sans doute sauvé des milliers de gens d’une exposition à de dangereuses doses, mais cette zone a aussi conduit à des formes d’exposition par inadvertance. Les dirigeants soviétiques ont vite appris qu’on ne pouvait pas contenir les isotopes, qui voyageaient par le vent, dans l’eau, sur les pneus des camions et les vêtements des gens. À l’été 1986, presque tous les échantillons testés par les pouvoirs publics – lait, pain, beurre, viande, thé, produits frais – étaient contaminés. L’existence de la zone d’exclusion, vidée de ses habitant·es et contrôlée, couplée avec l’incapacité des dirigeants soviétiques à publier des cartes représentant de manière dynamique la diffusion de la radioactivité dans des lieux où les gens vivaient et produisaient de la nourriture, a conduit de nombreuses personnes à se croire en sécurité, à tort.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Les confinements sont donc aussi des dispositifs de contrôle de l’information ?

Kate Brown – Tout à fait. Une bonne partie de Tchernobyl par la preuve décrit les problèmes très variés dont se plaignaient les gens aux médecins dans les zones contaminées autour de Tchernobyl. Au lieu des 54 victimes de Tchernobyl officiellement reconnues, le gouvernement ukrainien a fait état en 2016 de 150 000 victimes, seulement pour l’Ukraine, ce qui est une estimation plus fidèle de l’impact de l’accident – la Biélorussie et la Russie, qui ont reçu 80% de la radioactivité après l’accident, n’ont quant à elles pas produit de chiffres.

C’est la même chose autour des usines de plutonium. Hanford et Maïak sont des sites militaires, clôturés et gardés. Seules les personnes munies d’un badge pouvaient entrer, et n’avaient accès qu’à certaines zones du site. En compartimentant les sites, les dirigeants militaires confinaient l’information, craignant l’espionnage d’une puissance nucléaire rivale. Ils craignaient aussi les dirigeants locaux trop curieux, puis plus tard, les riverain·es inquièt·es des clusters de cancers, pathologies thyroïdiennes et autres maladies auto-immunes dans les communautés de fermiers autour des usines. Dans les premières années après l’accident de Tchernobyl, confiner l’information et les connaissances sur les rayonnements ionisants a été le résultat le plus significatif des zones nucléaires contrôlées. Malheureusement, ni les clôtures ni les gardes n’ont pu confiner la radioactivité elle-même.

Au lieu des 54 victimes de Tchernobyl officiellement reconnues, le gouvernement ukrainien a fait état en 2016 de 150 000 victimes, seulement pour l’Ukraine – la Biélorussie et la Russie, qui ont reçu 80% de la radioactivité après l’accident, n’ont quant à elles pas produit de chiffres.

Hanford et Maïak ont relâché environ 350 millions de curies de contaminants radioactifs dans l’environnement, c’est presque le double de l’accident de Tchernobyl selon les estimations les plus hautes. Le problème n’est pas non plus contenu dans le temps. En 2017, des émissions radioactives dues à des feux dans la Forêt Rouge autour de Tchernobyl ont été détectées jusqu’en Hollande ! Le mythe du confinement est puissant et omniprésent, alors que la diffusion de la radioactivité a des conséquences qui perdurent. En 2016, les trois comtés autour de la réserve nucléaire de Hanford ont vu un nombre très élevé d’enfants naître avec une anencéphalie, une malformation rare et mortelle. Entre 2010 et 2016, ces trois comtés ont enregistré un taux de pathologies du tube neural (le système nerveux des embryons) de 12,7 pour 10 000 naissances, contre 6,4 en moyenne dans le pays. Le rapport du ministère de la santé de l’État de Washington concernant ce taux alarmant n’a indiqué aucune cause pouvant l’expliquer. La radioactivité émanant de la réserve nucléaire a été considérée pendant un temps, puis écartée, puisque la radioactivité était prétendument confinée par la clôture, et rapidement évacuée par le débit important du fleuve Columbia et les vents puissants qui balayent la plaine. Après avoir recommandé aux femmes enceintes de prendre de l’acide folique en complément alimentaire, l’État a classé l’affaire et cessé de surveiller les malformations à la naissance dans ces trois comtés. Cet exemple illustre comment ce mythe du confinement des radiations a survécu à la fin de la guerre froide.

La progression du nuage de Tchernobyl en une minute (source : Institut de radioprotection et de sûreté nucléaire)

À rebours du caractère singulier et extraordinaire de la radioactivité, vous montrez aussi – c’est là une des originalités de votre livre Plutopia– que les villes du plutonium (Richland aux États-Unis et Ozersk en URSS) fonctionnent comme des matrices d’organisation sociale, avec d’étonnantes similitudes entre les deux blocs antagonistes. Vous décrivez comment la mise en place secrète de l’industrie du plutonium, extrêmement polluante et dangereuse, va de pair avec la manière dont les villes du plutonium deviennent des laboratoires préfigurant ce qu’allait devenir la vie urbaine de l’après-guerre. Comment vous est venue l’intuition que ces villes atomiques étaient aussi, plus prosaïquement, des lieux d’expérimentation sociale ?

Kate Brown – Deux choses m’ont permis de comprendre que ces villes fermées et top-secrètes, créées spécialement pour la production de plutonium, étaient les lieux d’expérimentations sociales qui ont constitué des modèles d’urbanisme dans leurs sociétés respectives. La première, c’est que ces villes semblent désespérément normales. La première fois que j’ai visité Richland, j’ai été déçue. Je circulais dans des rues larges, le long de maisons toutes similaires, aux pelouses impeccables. Fuyant le murmure de l’arrosage automatique, j’ai fini au centre commercial « Atomic », entouré d’hectares de parking… Pourquoi étais-je venue jusqu’ici ? Cette ville n’avait rien de top-secret ! C’était une banlieue américaine typique de l’après-guerre. C’est seulement par la suite que j’ai compris que l’entreprise DuPont (en charge de l’usine de Hanford) a utilisé les financements fédéraux dont elle bénéficiait pour faire de Richland une communauté modèle, dédiée aux familles blanches à la recherche d’un environnement sécurisé pour élever leurs enfants. Selon DuPont, l’objectif était d’attirer des cadres ainsi que les meilleurs ouvriers à Richland, une petite localité isolée dans l’est de l’État de Washington. Les maisons avaient le confort moderne, de l’électroménager dernier cri, et des loyers subventionnés par le gouvernement fédéral. Richland avait d’excellentes écoles, un service de bus, de nombreux commerces, parcs et loisirs. La largeur des rues rendait possible une évacuation de masse. Le centre commercial pouvait faire office d’abri anti-aérien, et les immenses parkings, de coupe-feu.

La ville soviétique dédiée au plutonium s’appelait Ville-40 (elle a ensuite été renommée Ozersk, qu’on peut traduire par « la vallée du lac »). Je n’ai jamais pu y entrer parce qu’Ozersk est resté une ville fermée, même dans les années 1990, période où la course à l’armement nucléaire ralentissait. Mais d’après les photos et les descriptions, j’ai compris qu’Ozersk aussi était une ville modèle pour les citoyens soviétiques. Chaque famille bénéficiait d’un logement individuel plutôt que d’une pièce dans un appartement communautaire. Bordant un lac, entourée de forêts, Ozersk avait de beaux parcs, des théâtres, des centres sociaux et des restaurants. Il y avait même un club nautique. Les soviétiques aimaient surtout les magasins bien approvisionnés, où l’on trouvait, comme une ancienne habitante me l’a dit « tout, même du crabe et du caviar ».

Lire aussi | L’utopie nucléaire des villes atomiques de la guerre froide・Kate Brown (2026)

Au contraire, les étagères des magasins soviétiques de province étaient souvent vides. Les villageois·es de la partie sud de l’Oural, autour d’Ozersk, devaient cultiver ou cueillir dans les bois, puis mettre en conserve leur propre nourriture pour répondre à leurs besoins nutritionnels. Acheter des vêtements ou des meubles nécessitait des déplacements dans les grandes villes et de longues files d’attente. Mais pas à Ozersk. C’était une utopie consumériste. Après un accident nucléaire majeur en 1953, des employé·es de l’usine de plutonium de Maïak, voyant des retombées grises venant de l’usine et des ambulances transportant à toute allure de jeunes soldats mortellement blessés à l’hôpital, ont démissionné. Mais après seulement quelques mois dans « le vaste monde », comme ils l’appelaient, ils ont supplié de récupérer leur emploi et de revenir dans la forteresse bien gardée et bien approvisionnée d’Ozersk.

Ces villes dédiées au plutonium sont devenues des modèles de développement urbain d’après-guerre dans chaque pays. Bénéficiant de prêts subventionnés par l’État fédéral, les Américains blancs ont déserté les villes pour des banlieues peuplées d’autres Blancs, paradis des enfants et des automobilistes, qui se sont développées partout dans le paysage américain. Les soviétiques, à la même période, faisaient tout pour quitter les villages et les bourgs et s’installer dans les villes, bien approvisionnées. Les villes-usines comme Ozersk, dédiées à la production d’un seul produit, où la direction de l’usine veille à bien approvisionner ses employés, ont fleuri en URSS.

Le deuxième indice qui m’a menée à la conclusion que les plutopies n’étaient pas exceptionnelles, c’est que les contaminants auxquels les travailleur·euses et les résident·es d’Ozersk et de Richland ont été exposé·es via leur nourriture, leur eau et l’air ne sont pas absents du reste du monde. Du césium, du strontium radioactifs et parfois du plutonium sont régulièrement identifiés dans les corps des habitant·es des États-Unis et de Russie. Après que les essais nucléaires se sont multipliés dans le monde, pas grand-chose ne distinguait biologiquement un·e habitant·e de Plutopia de ses compatriotes vivant dans des villes ordinaires… mis à part le volume des contaminants !

Du césium, du strontium radioactifs et parfois du plutonium sont régulièrement identifiés dans les corps des habitant·es des États-Unis et de Russie.

La question de la contamination radioactive est au cœur de vos deux livres. Vous décrivez précisément comment les corps humains et animaux, les plantes, le sol, l’air et l’eau sont contaminés par les pollutions radioactives. Vous expliquez par exemple comment les effluents radioactifs libérés par l’accident de Tchernobyl se sont répandus, débordant le découpage par zones d’évacuation hiérarchisées en fonction de leur distance avec le réacteur explosé. La météo, la topographie et le style de vie (par exemple, la consommation de légumes du potager plutôt que d’aliments emballés) ont conduit à des niveaux de contamination parfois très élevés dans des endroits pourtant éloignés.

Kate Brown – Les principes habituels pour se protéger des radiations et autres produits toxiques reposent sur l’espace et le temps. Les recommandations en cas d’urgence incitent les gens à se mettre à distance des sources de toxicité et à limiter la durée d’exposition. Mais ce que j’ai trouvé en étudiant Richland, Ozersk et Tchernobyl, les endroits du globe où le plus de pollution radioactive a été relâchée, c’est que la présence de radiations déjoue les conventions de mesure du temps et de l’espace – le temps décompté en secondes, en minutes, et jusqu’en années, et l’espace mesuré en mètres. En conséquence, les scientifiques ont fini par mésinterpréter les effets des contaminants sur la santé humaine. Ils l’ont fait sans arrière-pensée, en appliquant les procédures standard de radioprotection, ou pas tout-à-fait innocemment, à travers leurs efforts pour rassurer les citoyens anxieux en minimisant les effets des radiations sur la santé.

Comment les produits radiotoxiques déforment-ils le temps et l’espace ?

Kate Brown : Prenons d’abord l’espace. Un accident nucléaire se produit, et des hommes en combinaison arrivent avec du matériel pour construire des clôtures. Ils délimitent un espace contaminé et installent des panneaux avertissant du danger. Ces zones laissent penser, à tort, que le danger se situe d’un côté de la clôture, et la sécurité de l’autre. Les citoyens vivant de l’autre côté des clôtures autour de l’usine de Hanford aux États-Unis ou de celle de Maïak en URSS croyaient que les barrières ainsi que les procédures de sécurité exécutées religieusement à l’intérieur de la zone les protégeaient. Et c’était le cas, dans une certaine mesure, mais les produits radiotoxiques sont dangereux pour la santé humaine parce qu’ils ne sont ni stables ni inertes. En mouvement perpétuel, ils imitent de manière opportuniste les éléments dont les organismes ont besoin pour vivre. Les plantes et les animaux se chargent de toxines radioactives et les transportent avec eux. Les isotopes radioactifs se fixent sur les molécules d’eau et de terre, se répandent au gré des courants jusque dans les tubes digestifs des mammifères. Les clôtures montées pour les retenir sont rapidement débordées. Les cartes représentant l’extension de la contamination radioactive deviennent obsolètes dans les jours qui suivent leur impression.

Une maison abandonnée dans la ville de Tchernobyl. Photographie : Kate Brown.

Néanmoins, les scientifiques travaillant pour l’Agence internationale de l’énergie atomique (AIEA) qui ont été chargés en 1990 de déterminer l’impact de l’accident, en termes de santé publique, dans les territoires habités autour de Tchernobyl, ont procédé comme si les cartes décrivant l’étendue de la contamination et les clôtures décrivaient la réalité. Ils ont mené une étude comparant des habitants de territoires « propres » et « contaminés ». Au cours d’une mission de trois semaines, les consultants des Nations Unies ont examiné 1600 personnes. Ils ont conclu que la santé des habitant·es des villages contaminés comme celle des villages du groupe « de contrôle » était mauvaise et se dégradait depuis l’accident de Tchernobyl, qui avait relâché près de 200 millions de curies de radiation. Les scientifiques ont conclu que dans les villages, contaminés ou appartenant au groupe de contrôle, les gens ne souffraient pas des radiations car les doses étaient trop faibles, d’après eux, pour créer des problèmes de santé – la référence étant à ce moment-là les doses, bien supérieures, absorbées par les survivants de la bombe atomique. Les scientifiques des Nations Unies ont conclu que les habitants souffraient d’anxiété, d’une mauvaise alimentation et d’une consommation excessive d’alcool1.

Seulement, l’exposition aux radiations ne se réduit pas à la distance. Les gens vivant dans les zones considérées comme fortement exposées ont eu le droit à une aide gouvernementale, qui leur a permis d’acheter de la nourriture produite ailleurs et acheminée par des camions. Ces fermiers-là ont continué leur activité, mais au lieu de consommer la majeure partie de la nourriture produite, ils ont vendu ces denrées contaminées sur les marchés des villages voisins, où la contamination enregistrée était plus faible, et que les scientifiques avaient assignés au groupe de contrôle. Dans ce cas, des habitant·es plus éloignés des zones fortement irradiées ont finalement été plus exposé·es que d’autres vivant plus près. La distance ne les a pas protégés.

Au lieu de consommer la majeure partie de la nourriture produite, les fermiers ont vendu ces denrées contaminées sur les marchés des villages voisins, où la contamination enregistrée était plus faible.

Comment les radiations déforment-elles le temps ?

Kate Brown – Le temps dans les zones radioactives ne s’écoule pas uniformément : il se gonfle et se contracte de manière imprévisible2. Pour les pompiers et travailleurs nucléaires de Tchernobyl, qui ont vieilli prématurément en raison des radiations, le temps s’est accéléré. Dans des endroits comme la Forêt Rouge, 10 km2 de pins sylvestres fortement touchés par les retombées du réacteur en flammes, le temps s’est ralenti : des arbres qui auraient dû se décomposer en quelques années étaient toujours là deux décennies plus tard, en raison du peu d’insectes et de microbes présents pour accomplir le travail de décomposition3. Le vieillissement accéléré des humains s’est aussi produit dans les zones de production de plutonium, mais s’agissant de sites militaires, peu de données ont été publiées à ce sujet.

Revenons à la guerre froide un instant. Une partie des faits que vous décrivez dans Tchernobyl par la preuve ont été mis au jour par des gens que vous appelez des « héros du quotidien ». Sans soutien institutionnel, avec leurs propres ressources et malgré les risques, elles et ils ont enquêté sur la catastrophe de Tchernobyl et ses conséquences. Pouvez-vous nous parler de ces personnes ?

Kate Brown – Ces héros du quotidien sont formidables ! Natalia Lozyts’ka enseignait la physique à Kiev. Elle avait accès à un compteur Geiger et avait remarqué les coups de soleil violacés et les évanouissements de ses enfants après l’accident. Elle a commencé à mesurer la radioactivité sur son paillasson et dans la cour devant chez elle. Elle a trouvé des points intensément radioactifs, et a prélevé avec une truelle de minuscules particules dont la radioactivité s’élevait à 3 milli-Roentgen par heure. Elle les a scotchées sur une feuille de papier, noté les lieux et dates des prélèvements. Elle a mesuré leur radioactivité chaque jour, et à mesure que ces particules se dégradaient, elle a pu calculer la quantité de radionucléides contenus à l’intérieur4. Confrontée à la totale absence d’information concernant la radioactivité après l’accident, elle a utilisé ces minuscules fragments radioactifs pour comprendre ce qui s’était passé, 170 km au nord de Kiev. Elle a découvert tout un spectre de radioactivité et en a déduit que le réacteur n’avait pas explosé en raison d’un dégagement de vapeur ou d’une réaction chimique, comme les autorités soviétiques l’avaient affirmé, mais qu’il s’agissait bel et bien d’une explosion nucléaire – cela n’a ensuite été confirmé qu’en 2016 par Lars Erik de Geer et son équipe, dans un laboratoire extrêmement bien équipé5. Lozyt’ska était si inquiète de sa découverte qu’elle s’est mise à mesurer la radioactivité dans des villages voisins. Les fermiers lui parlaient de leurs symptômes, troublants – maux de gorge, saignements de nez, vertiges et évanouissements. Elle a écrit aux dirigeants pour les informer de ses recherches, mais n’a reçu aucune réponse. Elle a envoyé plusieurs autres courriers, que j’ai retrouvés dans les archives. Finalement, voulant désespérément faire passer le message, elle s’est déguisée en femme de ménage et s’est introduite à la première conférence sur les conséquences sanitaires de l’accident de Tchernobyl, en mai 1988 – un spectacle organisé depuis Moscou pour rassurer le monde entier6. Trois agents du KGB ont attrapé Lozyt’ska essayant de transmettre des documents à un délégué états-unien. Ils l’ont expulsée manu militari. Cela ne l’a pas dissuadée, elle a trouvé d’autres moyens de diffuser l’information.

« Pas besoin de s’inquiéter », un compteur Geiger indique le niveau de radioactivité à Pripyat, Tchernobyl.

Alexandre Komov, un autre héros rencontré dans les archives, ne parvenait pas à convaincre les autorités de Kiev que dans sa province de Rivni, pourtant éloignée de Tchernobyl, le lait était trop contaminé pour être consommé. Il a finalement chargé un camion de briques de lait et l’a conduit jusqu’à Kiev, pour que les dirigeants sceptiques le testent eux-mêmes. Dans la ville ukrainienne de Zhytomyr, le Dr Pavel Chekrenev a découvert que l’eau rejetée par une tannerie locale était six fois plus radioactive que les seuils autorisés en cas d’urgence, pourtant élevés. Cette eau se déversait dans le réservoir d’eau potable de Zhytomyr. Il a mis la tannerie à l’arrêt et interrompu le traitement de 19 000 peaux7. Il a été rétrogradé pour cela, mais il a eu gain de cause sur le fond : les peaux contaminées n’ont finalement pas été tannées, l’eau potable de la ville a été protégée, et cela a épargné aux habitant·es de Zhytomyr une source supplémentaire de contamination.

Lire aussi | “Chère Greta Thunberg” – À propos du nucléaire・Xavière Gauthier (2022)

Ces « héros du quotidien » sont d’ailleurs beaucoup moins présents dans Plutopia, comment l’expliquez-vous ?

Kate Brown – C’est une excellente question. Pourquoi ne sont-ils pas présents dans Plutopia ? Ils devraient exister. Pendant quarante ans, les usines de Hanford et Maïak ont déversé des tonnes de déchets radioactifs dans leur environnement, à peu près 350 millions de curies pour chacune des deux usines. Je raconte dans Plutopia que les travailleur·euses des usines ont eu des accidents, sont tombé·es malades, sont mort·es. Au vu des enjeux, pourquoi y a-t-il si peu de traces de résistance à ces usines de bombes dangereuses et polluantes ?

Maïak et Hanford étaient des sites militaires. Toutes les personnes pouvant y entrer signaient des serments de loyauté chaque année. Quand j’ai demandé à une ancienne employée de Maïak pourquoi personne ne s’était plaint, elle m’a dit « quand nous avons été embauché·es, personne ne nous a avertis des effets de la radioactivité. Nous ne savions même pas ce que c’était. Nous n’avions peur que du KGB »8. Les agents du KGB bannissaient de la ville bien approvisionnée d’Ozersk non seulement les mots « plutonium » et « radiation », mais aussi toutes les personnes qui causaient des problèmes.

Les employés de Hanford, dans l’état de Washington, craignaient aussi le service de sécurité du site. Faire preuve de curiosité, même de manière anodine, était considéré comme malsain. Betsy Stuart se souvient qu’une de ses voisines avait demandé à une amie ce que son mari faisait dans la vie. Quand l’autre lui a répondu qu’elle ne pouvait pas parler du travail de son mari, la voisine a dit quelque chose qu’elle n’aurait pas dû dire. Le lendemain matin, elle avait disparu. « Croyez-moi », m’a dit Stuart, « quand on se réunissait, on ne parlait jamais de ce qu’on faisait. Nous avions la sensation constante d’être écoutés »9.

Une tour de refroidissement de la centrale nucléaire de Tchernobyl. Photographie : Kate Brown.

Je n’ai trouvé qu’un seul cas de lanceur d’alerte pendant la guerre froide. En 1962, le chef du bureau régional du KGB s’est plaint que les gaz radioactifs de Maïak, non filtrés, contaminaient deux villages de soldats et de travailleurs autour d’Ozersk. Et c’est tout. En revanche, aucun signe de dissension du côté de l’usine de Hanford. On pourrait trouver cela contre-intuitif : c’était l’URSS le régime autoritaire connu pour arrêter, emprisonner et exécuter les gens qui posaient trop de questions. Les travailleurs de Hanford faisaient confiance à leurs supérieurs, et les États-Unis s’enorgueillissaient d’une société ouverte et libre.

En effet, c’est étonnant !

Kate Brown – En plus de la peur des services de sécurité, d’autres forces à Richland contribuaient à étouffer les questions et les protestations. La richesse industrielle des États-Unis comme la prospérité des familles des travailleur·euses états-unien·nes augmentaient, au point que la science, la technologie et la culture se renforçaient mutuellement pour diffuser un message de compétence, d’expertise et de confiance.

C’est là où les coûteuses infrastructures culturelles de Richland et la stratégie d’industrialisation rurale, à grand renfort de subventions, a payé. La culture de Richland, c’est le respect de la richesse, de l’éducation, de l’expertise, de la hiérarchie et des règlements, et cela a permis de mettre en sourdine les doutes, la peur, les rumeurs et même les faits. Les dirigeants de Hanford ont beaucoup investi dans l’éducation des enfants des ouvriers, générant une adhésion profonde au progrès scientifique.

La culture de Richland, c’est le respect de la richesse, de l’éducation, de l’expertise, de la hiérarchie et des règlements, et cela a permis de mettre en sourdine les doutes, la peur, les rumeurs et même les faits.

Un résident se souvenait ainsi : « à Richland, le soleil brillait 300 jours par an. Chaque habitant avait une pharmacie, une épicerie, un terrain de baseball et une station-service à quelques pâtés de maison. On avait de bons médecins. Chaque pelouse était tondue, chaque maison peinte. Les donuts chauds, le shopping chez CC Anderson, et les célébrations au Bomber Bowl sont des souvenirs chers à tous les gamins de Richland. Pourquoi est-ce que c’étaient de si belles années ? On était protégés. Les parents élevaient leurs enfants dans cette cité atomique, loin du mal, loin des villes en déliquescence et de la dégradation sociale. C’est la sérénité, le bien-être, l’absence de conflit. »10

Les événements géopolitiques récents nous ont beaucoup fait penser à vos livres. La centrale nucléaire de Zaporijjia en Ukraine a été attaquée par l’armée russe, puis Israël et les États-Unis ont bombardé des installations nucléaires en Iran – avec des conséquences inconnues en termes de pollution radioactive. Dans le même temps, plusieurs pays, dont la France, la Hongrie, la Pologne et la Slovaquie, ont annoncé un renouveau du nucléaire civil. Ils projettent de construire de nouvelles infrastructures et de prolonger le parc nucléaire existant. Ces projets sont soutenus à la fois par des éco-modernistes qui soutiennent le nucléaire pour décarboner l’économie, et par des acteurs placés à la droite ou à l’extrême droite des échiquiers politiques, qui détestent les renouvelables. Depuis votre perspective d’historienne, cette configuration vous semble-t-elle nouvelle, ou rappelle-t-elle des schémas plus anciens ?

Kate Brown – Il n’y a pas grand-chose de nouveau dans les conflits nucléarisés d’aujourd’hui, ni dans la renaissance nucléaire civile, si ce n’est l’intensification des politiques nationalistes et xénophobes qui instrumentalisent l’énergie nucléaire à des fins politiques, davantage qu’économiques. L’énergie nucléaire est trois à cinq fois plus chère que l’énergie solaire et éolienne au kW/h. Il faut des décennies pour construire une centrale nucléaire, contre quelques semaines ou quelques mois pour installer des panneaux solaires ou des éoliennes. Ces temporalités constituent une différence critique, quand on pense à l’urgence climatique. On a vu avec la guerre en Ukraine la vulnérabilité des installations nucléaires, qui, une fois prises par l’ennemi, peuvent être transformées en gigantesques bombes polluantes. Nous avons vu en Iran, et avant cela en Irak, comme il est facile de confondre des installations nucléaires civiles et militaires pour justifier des offensives. Pendant la guerre froide, les forces conservatrices ont adopté le nucléaire comme une promesse de puissance économique, politique et militaire. C’est toujours le cas aujourd’hui, de manière assez irrationnelle, car quiconque se soucie de souveraineté et de résilience économique comprend que les renouvelables sont moins chères, plus sûres, plus propres et plus rapides à déployer.

Lire aussi la série Atolls irradiés・Naïké Desquesnes et Léna Silberzahn (2025)

Des enfants cueilleurs de fruits après le travail. Photographie : Kate Brown.

L’histoire de la production de la bombe nucléaire et de Tchernobyl nous a montré que les incroyables promesses éco-modernistes sont précisément… incroyables. Elles laissent dans leur sillage des paysages empoisonnés, des gens malades et des projets de dépollution qui n’en finissent pas. L’historienne féministe Emily Callaci a montré dans son livre Wages for Housework comment le travail de « ménage » en contexte de changement climatique et autres catastrophes anthropogéniques revient à des personnes qui l’accomplissent gratuitement : trouver le moyen de consommer une nourriture non-contaminée, éviter les coins les plus pollués du quartier, prendre soin d’un enfant qui n’est jamais en pleine forme ou d’un adulte qui ne parvient pas à concevoir d’enfant… Et des années plus tard, prendre soin de proches touchés par des cancers ou des maladies chroniques. Avec le développement de ces projets nucléaires, et la quantité croissante d’isotopes radioactifs en circulation dans le monde, nous sommes de plus en plus nombreux·ses à travailler, gratuitement, comme liquidateur·ices nucléaires.

Image principale : la zone autour de Tchernobyl. Photographie : Kate Brown.

SOUTENIR TERRESTRES

Nous vivons actuellement des bouleversements écologiques inouïs. La revue Terrestres a l’ambition de penser ces métamorphoses.

Soutenez Terrestres pour :

  • assurer l’indépendance de la revue et de ses regards critiques
  • contribuer à la création et la diffusion d’articles de fond qui nourrissent les débats contemporains
  • permettre le financement des deux salaires qui co-animent la revue, aux côtés d’un collectif bénévole
  • pérenniser une jeune structure qui rencontre chaque mois un public grandissant

Des dizaines de milliers de personnes lisent chaque mois notre revue singulière et indépendante. Nous nous en réjouissons, mais nous avons besoin de votre soutien pour durer et amplifier notre travail éditorial. Même pour 2 €, vous pouvez soutenir Terrestres — et cela ne prend qu’une minute..

Terrestres est une association reconnue organisme d’intérêt général : les dons que nous recevons ouvrent le droit à une réduction d’impôt sur le revenu égale à 66 % de leur montant. Autrement dit, pour un don de 10€, il ne vous en coûtera que 3,40€.

Merci pour votre soutien !

Notes

  1. The International Chernobyl Project: Proceedings of an International Conference, Vienne, 21-24 mai 1991, (IAEA, 1991). Les références sur les effets néfastes des « faibles » doses chroniques de rayonnement de Tchernobyl sont abondantes. Je présente ici un éventail de sources allant des archives aux articles publiés dans des revues scientifiques à comité de lecture. “Otchet o vypolnenii gosudartstvennoi natsional’noi programy “Deti Chernbylia” za 1992 goda,” 1992, Tsentral’nyi derzhavnyi arkhiv vishchikh organiv vladi, Kyiv, (TsDAVO) 324/19/33, 1-18 ; “Dokumentiy MOZ Ukrainy pro vikonannia derzhavnykh program ta pro stan zdorov’ia naseleniia,” 27 janvier 1992, TsDAVO 342/19/32, 19-30 ; “Dovidka,” après le 11 mars 1990, TsDAVO 342/17/5240, 88-98 ; N. Iu Liubinetskaia, “Ot chet o nauchnou rabote po teme: Okhrana zdorov’ia profilaktika i reabilitatsia zabolevanii u voennosluzhashchikh i chlenov ik semei,” Sluzhba Bezpeki Ukraini, derzhavnyi arkhiv, Kyiv, (SBU) 35/64/36, Kyiv 1996, 149-80 ; “Itogi raoty otdela po izucheniiu meditsinskikh posledgstvii Chernobyl’skoi katastrofy za 1996 god,” sans date, 1996, SBU 35 68, 1-12 ; E. I. Stepanova et al., “Effekty vozdeistviia posledstvii Chernobyl’skoi avarii na detskii organizm,” Pediatriia, 12 (1991): 8-13 ; Erik R. Svendsen, et al., “Cesium 137 Exposure and Spirometry Measures in Ukrainian Children Affected by the Chernobyl Nuclear Accident,” Environmental Health Perspectives, vol. 118, no. 5 (Mai 2010): 720-5 ; Andre Dubois, “Gastrointestinal Radiodamage and Radioprotection: Chernobyl in Retrospect,” at “Symposium on Perspectives in Radioprotection: Program and Abstract,” 13-14 mars 1987, Bethesda, MD, USU Archives ; Mohammad Reza Shiekh Sajjadieh, et al., “Cytokine Status in Ukrainian Children with Irritable Bowel Syndrome Residing in a Radioactive Contaminated Area,” Iranian Journal of Immunology, 9(4), 248-53 ; K. Spivak, C. Hayes, J.H. Maguire, “Caries prevalence, oral health behavior, and attitudes in children residing in radiation-contaminated and non-contaminated towns in Ukraine,” Community Dent Oral Epidemiology, 2004 ; 32: 1-9 ; Anna Lindgren, et al., “Individual whole-body concentration of Cesium 137 is associated with decreased blood counts in children in the Chernobyl-contaminated areas, Ukraine, 2008-2010, Journal of Exposure Science and Environmental Epidemiology, (2013), 1/9: 1-3.
  2. Sur le temps, voir Julian Barbour, The End of Time : The Next Revolution in Physics (Oxford University Press, New York, 2001): 11-15.
  3. Timothy A. Mousseau et al., “Highly reduced mass loss rates and increased littler layer in radioactively contaminated areas,” Oecologia, 24 juin 2013,DOI: 10.1007/s00442-014-2908-8; et “Chernobyl Trees Barely Decomposed, Study Finds,” NBC News, 26 mars 2014.
  4. “Au recteur de l’Université de Kiev” 1986, archives personnelles de Lozyts’ka.
  5. Entretien téléphonique avec Lars Erik de Geer, 18 décembre 2017, et Lars-Erik De Geer et al., “A Nuclear Jet at Chernobyl Around 21:23:45 UTC on April 25, 1986,” Nuclear Technology, 2017.
  6. “Medical Aspects of the Chernobyl Accident,” Kiev 11-13 Mai, 1988, (IAEA: Vienna, 1989): 9-12. Pour une analyse de l’impact négatif que la conférence a eu sur les patient·es et les traitements, voir le courrier d’Aleksandr P. Borshchevskii à Evgenii Chazov, 30 octobre 1988, GARF 8009/51/4340: 67-84.
  7. “Actes d’enquête sanitaire,” Akt sanitarnogo obsledovaniia,” 11 août, 1986, et “Directive des Ministres soviétiques” “Poruchenie Soveta Ministry, UkSSR,” 20 août 1986, TsDAVO 324/17/4348: 14, 66.
  8. Vladyslav B. Larin, “Mayak’s Walking Wounded,” The Bulletin of the Atomic Scientists, septembre/octobre 1999: 23.
  9. Sanger, Working on the Bomb, 170.
  10. Mai 1999, Archives de l’association des anciens élèves Alumni Sandstorm, accessibles sur www.alumnisandstorm.com.

L’article « Nous travaillons gratuitement comme liquidateur·ices nucléaires » est apparu en premier sur Terrestres.

PDF

23.04.2026 à 17:50

L’utopie nucléaire des villes atomiques de la guerre froide

Kate Brown

C’est l’histoire d’une utopie nucléaire sur fond de haine réciproque entre les deux puissances ennemies de la guerre froide. Dans “Plutopia”, l’historienne Kate Brown retrace l’histoire de deux cités – l’une soviétique, l’autre américaine – dévolues à la production de plutonium. Et décrit la vie dans ces villes-usines aussi cruciales que secrètes. Extrait.

L’article L’utopie nucléaire des villes atomiques de la guerre froide est apparu en premier sur Terrestres.

Texte intégral (7788 mots)
Temps de lecture : 18 minutes

Extrait de l’introduction du livre de Kate Brown, Plutopia – Une histoire vraie des premières villes atomiques, traduit de l’anglais (États-Unis) par Cédric Weis et paru aux éditions Actes Sud dans la collection « Questions de société » en 2024.


C’est l’histoire d’une utopie, à deux extrémités du monde. L’histoire d’un rêve tragique, au cœur de la guerre froide. L’histoire de deux ennemis, hantés par la Bombe. L’histoire de deux villes fermées, reflets l’une de l’autre, unies par la peur de l’apocalypse, par leur haine réciproque et par une même obsession, la production effrénée de plutonium : Richland, aux États-Unis, dans le Sud-Est de l’État de Washington ; Ozersk (littéralement, la « vallée des lacs »), en URSS, dans le Sud de l’Oural.

Ces deux villes-usines, centres névralgiques des arsenaux nucléaires des deux blocs, n’ont pas seulement produit des ogives et des missiles, elles ont aussi créé d’heureux souvenirs d’enfance, des logements abordables et d’excellentes écoles au sein de communautés modèles, devenues des havres de paix pour les familles qui y ont vécu. Leurs habitants, pionniers du plutonium, se remémorent qu’ils ne verrouillaient jamais leur porte, que leurs enfants traînaient sans danger dans les rues, que les relations de voisinage étaient bonnes, et qu’il n’y avait ni chômage, ni indigence, ni criminalité.

Le souvenir de ce sentiment de sûreté et de sécurité dans des lieux situés à l’épicentre de la course aux armes nucléaires m’a beaucoup intriguée. Dans ces mêmes villes, des agents de la sûreté et des médecins surveillaient et auscultaient fébrilement les habitants par le biais de réseaux d’informateurs, d’écoutes téléphoniques et d’examens médicaux obligatoires. Quant aux ingénieurs des usines d’armement, invités à produire un maximum de plutonium en un temps record, ils polluaient dramatiquement et en toute impunité l’environnement.

Des différentes étapes de la chaîne de fabrication des armes nucléaires, la production de plutonium est la plus sale. Chaque kilogramme de produit fini génère des milliers de mètres cubes de déchets radioactifs. En quatre décennies de fonctionnement, l’usine de plutonium de Hanford, près de Richland, et celle de Mayak, près d’Ozersk, ont chacune émis au moins 200 millions de curies de radioactivité dans leur environnement immédiat – l’équivalent, au total, de deux catastrophes de Tchernobyl1. Ces usines ont rendu inhabitables des dizaines de milliers d’hectares, contaminé des rivières, des champs et des forêts, et des milliers de personnes leur ont attribué leurs maladies.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Tchernobyl est mondialement connu. Pourquoi Hanford et Mayak le sont-ils si peu ? Comment se fait-il que les habitants de ces sites – berceaux d’un long et lent désastre – en aient gardé un souvenir si radieux ? Les gouvernants de Richland et d’Ozersk avaient l’habitude de mentionner fièrement le nombre de doctorants que comptait leur cité. Pourquoi des personnes aussi promptes à vanter leurs compétences ont-elles accepté d’ignorer durant des décennies l’énorme pollution environnementale qui sévissait autour d’elles ?

Tchernobyl est mondialement connu. Pourquoi Hanford et Mayak le sont-ils si peu ?

En me documentant, j’ai été surprise de constater l’attention que les hommes de pouvoir chargés de fabriquer les premières réserves de plutonium au monde avaient accordée à l’habitat, aux magasins, aux écoles et aux programmes de loisirs – en plus de celle qui a été réservée aux réacteurs à graphite et aux usines de traitement chimique. Non loin des réacteurs, de véritables villes, dévolues à la famille et à la consommation, avaient été construites pour accueillir une classe ouvrière dont le niveau de vie atteignait celui de la classe moyenne. Là encore, personne n’y voyait d’anomalie. Au cours des décennies suivantes, ces projets de prospérité de classe sociale unique ont inspiré certains programmes nucléaires civils. La ville ukrainienne de Pripiat, située non loin des réacteurs de l’usine de Tchernobyl, en a été l’illustration : en dépit de la pauvreté rurale qui l’entourait, elle bénéficiait de toutes les commodités de la ville moderne. Après la catastrophe de Fukushima de 2011, la presse a révélé que les compagnies d’énergie japonaises – bien qu’elles aient rogné sur la sécurité de leurs usines – avaient amplement contribué au financement de la construction de « villages atomiques » d’inspiration américaine et vendu l’énergie nucléaire comme une occasion d’accéder à la classe moyenne2. D’où vient qu’avec l’énergie nucléaire l’accès à la propriété se soit ainsi accommodé de tous les dangers ?

Les réacteurs D et DR à Hanford. Atomic Energy Commission/United States Department of Energy, Wikimedia.

Ozersk et Richland appartenaient à l’État, mais étaient gérés par des chefs d’entreprise. Richland constituait un cas à part sur le sol américain, car c’était une ville dénuée de propriété privée, d’économie de marché et de gouvernement local. Ozersk, quant à elle, était l’une des dix villes atomiques de l’Union soviétique. Tenues secrètes, absentes des cartes, elles étaient ceinturées de clôtures et personne n’y séjournait sans sauf-conduit. Étrangement, ceux qui y vivaient semblaient apprécier ce type d’organisation. À Richland, dans les années 1950, les citoyens électeurs ont voté à deux reprises contre la municipalisation, l’autonomie gouvernementale et la libre entreprise. À Ozersk, à la fin des années 1990, 95 % des électeurs interrogés se sont prononcés en faveur du maintien des barrières, des gardes et du système des sauf-conduits de leur ville. À l’heure où j’écris ces lignes, Ozersk est toujours clôturée et surveillée comme une prison. Ces choix de vie m’ont intriguée. Pourquoi les habitants de ces villes du plutonium ont-ils choisi de renoncer à leurs droits civiques et politiques ? Les Soviétiques n’avaient ni vie électorale ni médias indépendants, mais les habitants de Richland vivaient dans un pays démocratique particulièrement prospère. Pourquoi les fameux « freins et contrepoids » du système politique américain – ces mécanismes visant à garantir la séparation des pouvoirs entre l’exécutif, le législatif et le judiciaire – ont-ils échoué à protéger les États-Unis d’une contamination radioactive plus importante encore, quoique tenue secrète, que celle de Tchernobyl ?

Lire aussi | L’improbable et l’imprévu : à propos des centrales nucléaires en temps de guerre・Aurélien Gabriel Cohen et Bérengère Bossard (2022)

En cherchant les réponses à ces questions, j’ai découvert que pour inciter les travailleurs à accepter les sacrifices et les risques inhérents à la production de plutonium, les autorités nucléaires des deux pays ont inventé un concept : la plutopie. Les villes atomiques – sans équivalent, d’accès limité et pleines de promesses – satisfaisaient la plupart des aspirations des sociétés américaine et soviétique d’après-guerre. La prospérité méthodique qui accompagnait cette plutopie a conduit la plupart des témoins directs à fermer les yeux sur les déchets radioactifs qui s’accumulaient autour d’eux.

Ce livre relate l’histoire méconnue de deux catastrophes nucléaires survenues parallèlement aux États-Unis et en Union soviétique. J’espère qu’après lui il ne nous viendra plus à l’idée d’en séparer les récits. Les habitants d’Ozersk avaient coutume de dire que s’ils foraient la terre sans s’arrêter, ils finiraient par arriver à Richland. C’est ainsi que j’imagine ces deux villes : deux planètes tournant l’une autour de l’autre, sur un même axe. Ozersk a été créée à l’image de Richland et vice versa – délibérément, comme je vais le montrer, et au gré des prudentes manœuvres auxquelles se livraient les agents de renseignements et les promoteurs des deux villes, lesquels redoutaient à peu près autant la fin de la production de plutonium que la menace du rival nucléaire.

Quatre temps rythment ce récit. Dans les deux premières parties, nous nous intéresserons à l’histoire des travailleurs itinérants, des prisonniers et des soldats qui ont œuvré à la construction des deux immenses usines de plutonium : l’une, en 1943, dans l’Est de l’État de Washington ; l’autre, en 1946, dans le Sud de l’Oural. Au départ, les dirigeants américains et soviétiques avaient prévu de faire produire leur plutonium par une main-d’œuvre militarisée à l’abri de camps militaires. Mais les directeurs d’usine des deux blocs ont vite changé d’avis lorsqu’ils ont constaté avec effroi les beuveries et les bagarres auxquelles les ouvriers du bâtiment se livraient. Ils ont compris que les opérateurs des premières usines de plutonium au monde ne devaient pas être aussi incontrôlables que le produit qu’ils fabriquaient.

Il a été décidé d’inviter les opérateurs du plutonium à vivre en toute sécurité avec leur famille mononucléaire à l’intérieur de villes atomiques riches et pensées pour elle.

Pour remédier à la violence et à l’indiscipline des travailleurs itinérants, déconnectés de leur famille et de leur communauté, il a été décidé d’inviter les opérateurs du plutonium à vivre en toute sécurité avec leur famille mononucléaire à l’intérieur de villes atomiques riches et pensées pour elle. Les Américains parlaient de « village » pour désigner Richland, en hommage au mythe pastoral des origines de la démocratie américaine. De leur côté, les Soviétiques utilisaient le terme « ville socialiste » pour désigner Ozersk, eu égard au mythe communiste d’un avenir préservé de toute pauvreté rurale. Les responsables gouvernementaux ont dépensé sans compter pour promouvoir et développer la plutopie, investissant davantage dans les écoles des deux communautés que dans le stockage des déchets radioactifs, et beaucoup plus encore dans le bien-être de leurs résidents que dans celui des populations qui vivaient à l’extérieur des clôtures. La plutopie commençant à incarner les promesses de richesse, d’ascension sociale et de liberté de consommation portées par la guerre froide, les premiers résidents, anxieux, ont fini par accorder leur confiance à leurs dirigeants et par croire à la sécurité des usines et à la légitimité de la cause nationale. Et plus le projet avançait, plus les résidents ont accepté de troquer leurs droits civiques et biologiques contre des droits de consommateurs.

Image satellite du site nucléaire de Mayak, dans la région d’Ozersk. Wikimedia.

D’un point de vue démographique, les villes du plutonium étaient habitées par des membres de la classe ouvrière, mais, en raison de leur prospérité, on les considérait alors – et l’histoire en a conservé l’image – comme des enclaves de la classe moyenne. Aux États-Unis, de même qu’en Union soviétique, ce sont les membres de la classe moyenne qui – en s’appropriant les classes ouvrières, en parlant en leur nom et en les fondant dans une société « sans classe3 » – ont forgé et façonné les mémoires nationales. Les classes sociales étant amenées à disparaître, les ouvriers d’usine des deux pays ont appris à s’identifier à leurs supérieurs hiérarchiques et aux scientifiques de la classe moyenne, qui leur affirmaient que leurs lieux de travail et de résidence étaient sans danger.

La plutopie ne pouvait pas exister toute seule. Les historiens américains Bruce Hevly et John Findlay décrivent comment l’usine de plutonium de Hanford a donné naissance à un ensemble de « bases arrière », de camps et de garnisons temporaires pour les travailleurs les moins qualifiés4. J’ai trouvé le même type d’assemblage dans le Sud de l’Oural, où l’enclave prospère était entourée de camps de travail et de garnisons. En marge de ces villes « plutopiques », les dirigeants américains et soviétiques ont fondé des communautés de soldats, de prisonniers, de minorités, de fermiers et de travailleurs itinérants qui n’étaient pas qualifiés pour vivre en plutopie, parmi les « élus ». Quel intérêt y avait-il à séparer les gens en communautés distinctes ? Pourquoi le choix ne s’est-il pas porté sur le modèle des grandes villes industrielles, avec les quartiers huppés en amont des cours d’eau et à l’abri du rejet des usines, et les zones ouvrières en aval, sous le vent de la pollution ? Les réponses à ces questions d’histoire urbaine sont à trouver dans l’histoire des sciences, de la médecine et de la santé publique, mais aussi dans l’histoire du renseignement et de la sûreté nucléaire. Elles montrent de façon édifiante quelles conséquences la division de ces territoires en zones de discrimination (par classe et par race) a eues, non seulement sur le niveau de richesse des populations, mais aussi sur leur santé.

À mesure que les exploitants se débarrassaient de leurs déchets, les particules radioactives rejoignaient les courants atmosphériques, se mêlaient aux eaux potables et se répandaient dans les rivières.

Évidemment, le plutonium et ses dérivés radioactifs n’avaient cure des frontières à l’intérieur desquelles les gens étaient confinés. Ce sera l’objet d’une troisième partie. À l’abri d’un double mur d’enceinte de barbelés, les opérateurs de ces usines ont produit des tonnes de plutonium. L’hermétisme sécuritaire des usines et la ségrégation territoriale en zones nucléaire et non nucléaire ont créé ce que j’appelle une « zone d’immunité », dans laquelle les directeurs d’usine se sentaient libres de dépasser les budgets, de détourner des fonds, de dissimuler les accidents et, surtout, de polluer l’environnement. En Oural, les ingénieurs soviétiques ont suivi l’exemple des Américains pour assurer l’évacuation rapide et à moindre coût de leurs déchets : tout allait sous terre et dans les rivières alentour ; quant aux gaz radioactifs, ils étaient expulsés vers le ciel. D’année en année, les exploitants des centrales ont dû faire face à de nombreux accidents ; certains ont été majeurs, comme l’explosion de 1957 sur le site de retraitement de combustibles nucléaires de Mayak, non loin d’Ozersk, mais la plupart des déversements étaient habituels et intentionnels. À mesure que les exploitants se débarrassaient de leurs déchets, les particules radioactives rejoignaient les courants atmosphériques, se mêlaient aux eaux potables et se répandaient dans les rivières.

Panneau à l’entrée du site de Hanford. Wikimedia.

Après quelques années de recherche, les scientifiques de l’Est de l’État de Washington et du Sud de l’Oural ont fini par comprendre les dangers des produits de fission qu’ils fabriquaient. Ils ont découvert que les isotopes radioactifs envahissaient la chaîne alimentaire, pénétraient dans les végétaux, dans le corps et les organes des animaux et des humains, et y endommageaient les cellules. Les premiers dirigeants des usines de Richland et d’Ozersk redoutaient les « épidémies », c’est-à-dire l’incidence notable de maladies organiques au sein des populations exposées. Pourtant, au fil des années, aucune pathologie caractérisée n’a émergé chez les travailleurs du nucléaire et dans le voisinage de leurs usines. Ce n’était pas vraiment une surprise. Les scientifiques avaient pu observer, en menant des expériences sur des animaux de laboratoire, que les différents isotopes radioactifs agissaient diversement sur les organismes, qui eux-mêmes réagissaient sans uniformité à la contamination radioactive5. Les scientifiques savaient également qu’il fallait beaucoup de temps pour qu’un organisme exposé à de faibles doses d’irradiation montre des signes de maladie et périsse. Comptant sur ces périodes de latence pour laisser le temps à la science de résoudre le problème des fuites et de la dissémination des isotopes radioactifs, les responsables des installations n’ont procédé à aucun aménagement susceptible de protéger les travailleurs et leur voisinage.

Lire aussi | Nucléaire : une fausse solution pour le climat ?・Frédéric Durand (2022)

Face à une catastrophe environnementale émergente et invisible, la division du territoire en zones plutopiques et en bases arrière s’est avérée commode. Les habitants de l’espace protégé – jeunes, riches, employés à plein temps et suivis médicalement – donnaient l’image d’une population statistiquement en bonne santé. Parallèlement, les travailleurs itinérants, les prisonniers et les soldats qui effectuaient des travaux de construction sur des sols contaminés, décontaminaient les lieux de fuites radioactives et réparaient les bâtiments d’usine mis à mal par les accidents, ne bénéficiaient d’aucune surveillance médicale. Ouvriers temporaires, ils passaient d’un travail à l’autre en emportant avec eux les isotopes radioactifs qu’ils avaient ingérés et, par conséquent, tous les problèmes de santé ultérieurs susceptibles de laisser une trace épidémiologique.

Les responsables des installations n’ont procédé à aucun aménagement susceptible de protéger les travailleurs et leur voisinage.

À proximité des usines de plutonium vivaient également des populations agricoles et indigènes, dont les moyens de subsistance ne provenaient pas uniquement – contrairement à ceux des habitants de plutopie – de lointains marchés de consommation, mais très largement de leurs terres qui, sous le vent de la pollution radioactive et en aval des cours d’eau contaminés, étaient progressivement envahies de « points chauds ». En outre, les usines de plutonium ont été à l’origine d’un développement régional qui attirait toujours plus de monde dans la zone tampon, et les nouveaux venus, dangereusement exposés, n’étaient guère surveillés médicalement. En d’autres termes, le risque était calibré à l’aune des richesses des différentes classes sociales, dont les implantations correspondaient peu ou prou aux zones « primaires » et « secondaires » des cartes du risque nucléaire.

Dans une quatrième partie, nous partirons à la rencontre de ceux qui ont découvert qu’ils vivaient dans une zone radioactive. En 1986, après que la catastrophe de Tchernobyl eut révélé au monde le niveau de sûreté des centrales, les populations voisines en aval des cours d’eau et sous le vent des retombées radioactives ont commencé à attribuer aux usines de plutonium l’incidence des maladies chroniques et les taux élevés de malformations congénitales, d’infertilité et de cancers relevés dans leur communauté. Cependant, leur point de vue n’a pas été facile à faire valoir, tant le voile qui recouvrait la connaissance de l’empreinte écologique et sanitaire des usines nucléaires était opaque. Des décennies durant, des experts armés d’un savoir classé « secret-défense » ont parlé doctement de la sûreté des centrales et des doses de radioactivité admissibles pour la santé humaine, tout en rejetant les préoccupations des profanes. Après 1986, les agriculteurs locaux, les journalistes et les militants environnementaux ont exigé des rapports d’accidents et des études sur l’environnement et la santé, insistant pour connaître les risques auxquels l’État et les entreprises les avaient exposés.

Le réacteur N du site de Hanford, situé le long du fleuve Columbia. United States Department of Energy, Wikimedia.

C’était là un étonnant mouvement qui émergeait, au sein duquel les activistes américains et soviétiques – longtemps occupés à défendre les droits civils, politiques et de la consommation – en appelaient désormais à des droits biologiques6. Ils s’insurgeaient contre les industriels qui avaient privatisé les profits astronomiques de la production d’armement nucléaire tout en laissant à la société le soin de gérer les risques sanitaires et environnementaux. Les activistes se sont armés de l’expertise scientifique de leurs rivaux et de leurs propres études sanitaires menées dans les villages. Ce faisant, ils ont inventé une nouvelle forme d’engagement civique, que d’autres groupes ont adoptée en Ukraine et qu’on retrouverait des années plus tard au Japon.

S’il existe déjà des ouvrages d’histoire transnationale de la course aux armes nucléaires et d’histoire nationale et régionale des programmes atomiques ou des centrales, ce livre, lui, leur associe l’histoire des hommes et des femmes qui les ont créées et fabriquées, et l’histoire de leur lieu de vie7. Notre regard descendra des hauteurs vertigineuses des satellites espions jusqu’à hauteur d’homme, dans les rues de ces villes hantées par le spectre de l’anéantissement nucléaire. Il cherchera à comprendre ce que l’ère atomique a signifié pour ces forçats du nucléaire militaire et pour les populations rurales alentour qui ont vu les produits de fission peu à peu envahir leur environnement.

J’ai souhaité placer les deux communautés du plutonium non pas face à face, mais côte à côte, afin de montrer les liens qui les unissaient en dépit des tensions guerrières.

Pendant la guerre froide, les propagandistes et les experts ont souvent mis les États-Unis et l’Union soviétique en balance afin d’exonérer l’un ou l’autre camp d’une faute ou d’un acte d’injustice. Pour ma part, j’ai souhaité placer les deux communautés du plutonium non pas face à face, mais côte à côte, afin de montrer les liens qui les unissaient en dépit des tensions guerrières. Les toutes premières villes du plutonium avaient des caractéristiques communes qui, transcendant l’idéologie politique et la culture nationale, relevaient de la sûreté nucléaire, du renseignement nucléaire et des risques radioactifs. La principale différence entre les plutopies américaine et russe était d’ordre économique. Cela s’est révélé particulièrement déterminant en matière de santé. Les habitants de Richland et de ses environs vivaient dans un pays beaucoup plus riche ; par conséquent, les sacrifices auxquels ils consentaient pour la sûreté nucléaire – quoi qu’importants – n’étaient pas aussi étendus que ceux qui étaient imposés aux habitants d’Ozersk et de sa région.

Installation nucléaire abandonnée à Hanford, Wikimedia.

Pour écrire cet ouvrage, je me suis essentiellement appuyée sur des documents d’archives exhumés dans plus d’une douzaine de centres archivistiques, tant aux États-Unis qu’en Russie. J’ai également largement profité de travaux d’historiens et de leurs explorations. Les archives scripturaires sont absolument stupéfiantes : elles lèvent le voile sur ce que les autorités savaient, ce qu’elles ont décidé de dissimuler, ce qu’elles ont choisi de divulguer, et ce qui motive leurs décisions. Les propos des responsables politiques et scientifiques de l’époque montrent à quel point la question de la sûreté nucléaire, la création de paysages urbains, les catastrophes sanitaires et la contamination de l’environnement étaient intriquées.

Il m’est arrivé parfois de mettre en doute la crédibilité des histoires qui m’étaient contées, tant elles paraissaient extravagantes. Beaucoup, pourtant, après vérification, se sont révélées exactes.

Les personnes qui ont vécu à l’intérieur de ces villes atomiques et travaillé dans les centrales et alentour sont au cœur de mon livre. Durant cinq ans, entre 2008 et 2013, j’ai interviewé des dizaines d’acteurs. Malgré le serment qu’ils avaient dû faire de ne rien divulguer, nombre d’entre eux ont accepté de me parler, mus par la colère que leur inspirait l’injustice dont ils avaient été victimes. Le ministère russe de l’Énergie atomique ne m’ayant pas autorisée à entrer à Ozersk, je me suis rendue dans les villes et les villages voisins à la rencontre des habitants, prenant avec eux de multiples précautions, dignes d’un roman d’espionnage inspiré de la guerre froide. Certains me parlaient tout bas, nerveusement, dans un langage codé. À plusieurs d’entre eux, qui ont souhaité rester anonymes, j’ai attribué un pseudonyme.

Il m’est arrivé parfois de mettre en doute la crédibilité des histoires qui m’étaient contées, tant elles paraissaient extravagantes. Beaucoup, pourtant, après vérification, se sont révélées exactes. J’ai donc appris à considérer les narrateurs dont la fiabilité semblait discutable de prime abord comme autant de sources potentielles d’information, comme autant de personnes susceptibles d’avoir vu les choses sans les œillères habituelles. En outre, le contexte d’un entretien exerçant inévitablement une influence sur les propos, j’ai tenu à indiquer où et quand je rencontrais mes sources. J’ai également mentionné leurs vulnérabilités et les cas où ma sensibilité culturelle divergeait de la leur, afin de montrer comment le processus de l’entretien, de même que la recherche d’archives, est émaillé d’omissions, de contradictions et d’ignorances volontaires ou accidentelles. Certaines des personnes que j’ai interviewées m’ont accueillie avec méfiance, voire avec suspicion, car elles assimilaient mes recherches à une sorte de tourisme du désastre. À leurs yeux, c’était moi la narratrice dont la fiabilité était contestable. C’est peut-être aussi ce que penseront certains de mes lecteurs, et c’est logique. Je ne prétends pas avoir mis à nu toute la vérité. J’espère seulement en avoir éclairé quelques recoins. J’attends d’ailleurs avec impatience le jour où je pourrai lire d’autres récits sur le sujet et profiter d’autres interprétations.

Lire aussi | L’utopie nucléaire : le rêve de l’énergie sans la Terre・Ange Pottin (2023)

Les discordes politiques qui ont nourri la guerre froide sont derrière nous, mais le chapitre du nucléaire qui s’est ouvert au XXe siècle est loin d’être clos. Les paysages mortifères qui entourent les usines de plutonium sont devenus des champs de mines de déchets radioactifs qui s’infiltrent dans les sols et auxquels les populations locales, continuellement malades, attribuent leurs souffrances. L’absence de réel confinement des déchets nucléaires américains et japonais illustre la difficulté qu’il y a à confiner en toute sécurité des isotopes radioactifs volatils, susceptibles d’atteindre plusieurs centaines de degrés Celsius, qui corrodent les métaux, s’infiltrent dans les sols et finissent absorbés par la vie végétale – et ce, durant des dizaines de milliers d’années. Les enjeux du nucléaire sont immenses, et la tentation est grande d’en nier les dangers. Avant Tchernobyl et Fukushima, il y a eu Hanford et Mayak, où ont été inaugurées les pratiques constitutives de la plutopie : le cloisonnement du territoire en zones “nucléaires” et en zones “saines”, la priorité donnée à la production au détriment de la sécurité et de la gestion des déchets, la rétention des informations sur les accidents, la falsification des rapports de sécurité, le déploiement de forces “intérimaires” pour les basses besognes et la dissimulation de l’existence de maladies parmi les travailleurs du nucléaire et de territoires devenus radioactifs, le tout en offrant à certains citoyens triés sur le volet de généreuses subventions gouvernementales et d’agréables activités annexes. Dans le même temps, tous ceux qui dénonçaient les accidents et les problèmes sanitaires dans les centrales étaient espionnés, harcelés et menacés, tant aux États-Unis qu’en Russie, et ce, même après la fin de la guerre froide. Ce schéma s’est en grande partie répété en Ukraine en 1986, puis au Japon en 2011.

Les discordes politiques qui ont nourri la guerre froide sont derrière nous, mais le chapitre du nucléaire qui s’est ouvert au XXe siècle est loin d’être clos.

Ce livre entend mettre en lumière un héritage que de nombreux citoyens des puissances nucléaires n’ont jamais encore questionné, faute d’en connaître les tenants et les aboutissants – alors même que les grands dirigeants de ce monde discutent déjà d’une “renaissance du nucléaire”. Il est facile de dissimuler des catastrophes nucléaires dans des territoires militarisés et isolés de tout. Cela explique sans doute pourquoi les catastrophes liées au plutonium de Hanford et de Mayak sont si peu connues, contrairement à celles de Tchernobyl et de Fukushima. J’espère que leurs histoires, relatées par les habitants des deux territoires les plus irradiés au monde, inciteront les lecteurs à s’interroger davantage sur l’atome et sur son histoire.

Photo d’accueil : mélange de poudres d’oxyde de plutonium, Hanford, vers 1961. Wikimedia.

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. R. E. Gephart, Hanford : A Conversation About Nuclear Waste and Cleanup, Battelle Press, Columbus, 2003, 5.25. Certaines estimations pour l’usine de Mayak sont bien plus élevées, portant les émissions à 1 milliard de curies : Vladislav Larin, “Neizvestnyi radiatsionnye avarii na kombinate Maiak”, www.libozersk.ru/pbd/mayak/link/160.htm [lien désormais inactif].
  2. Yoshimi Shunya, “Radioactive rain and the american umbrella”, Journal of Asian Studies, 71(2), mai 2012, p. 319-331.
  3. Jack Metzgar, Striking Steel : Solidarity Remembered, Temple University Press, Philadelphie, 2000, p. 7 et 156.
  4. John M. Findlay & Bruce William Hevly, Atomic Frontier Days : Hanford and the American West, University of Washington Press, Seattle, 2011, p. 84.
  5. T. C. Evans, “Project report on mice exposed daily to fast neutrons”, 18 juillet 1945, NAA, RG 4nn-326-8505, box 54, MD 700.2, “Enclosures”.
  6. Adriana Petryna, Life Exposed : Biological Citizens After Chernobyl, Princeton University Press, Princeton, 2002.
  7. Parmi les publications les plus récentes : Gabrielle Hecht, Being Nuclear : Africans and the Global Uranium Trade, MIT Press, Cambridge, 2012 ; Richard Rhodes, Twilight of the Bombs : Recent Challenges, New Dangers, and the Prospects for a World without Nuclear Weapons, Vintage, New York, 2011 ; J. M. Findlay & B. W. Hevly, Atomic Frontier Days, op. cit. ; Jonathan Schell, The Seventh Decade : The New Shape of Nuclear Danger, Metropolitan Books, New York, 2007 ; Sharon Weinberger & Nathan Hodge, Nuclear Family Vacation : Travels in the World of Atomic Weaponry, Bloomsbury, New York, 2008 ; Max S. Power, America’s Nuclear Wastelands, Washington State University Press, Pullman, 2008 ; V. N. Kuznetsov, Zakrytye goroda Urala, Akademiia voenno-istoricheskikh nauk, Iekaterinbourg, 2008.

L’article L’utopie nucléaire des villes atomiques de la guerre froide est apparu en premier sur Terrestres.

PDF

11.04.2026 à 00:01

Trash territoire : gérer la technosphère au Japon

Emilie Letouzey

Que faire des déchets industriels, des gravats ou des résidus d’incinérateur produits au Japon ? Réponse : du territoire. C’est l’objectif du “plan Phenix” à Ôsaka, des terre-pleins construits dans la baie pour enfouir des déchets et prolonger la ville en gagnant sur la mer. Les colonies d’oiseaux menacés qui s’y réfugient pourront-elles s’y maintenir ?

L’article Trash territoire : gérer la technosphère au Japon est apparu en premier sur Terrestres.

Texte intégral (12810 mots)
Temps de lecture : 29 minutes

« Étrangement, je ne pense pas un instant aux tonnes de déchets enfouis sous mes pieds », Lucie Taïeb, Freshkills, 2020 (p.66)

Baie d’Ōsaka, février 2024

Assise près de la fenêtre du bateau, je regarde s’éloigner les installations industrielles du port d’Ōsaka en essayant d’oublier l’odeur du gasoil qui imprègne la cabine. Quelques minutes plus tard, nous approchons déjà des digues en béton de Shintō, notre destination. Shintō, « l’île nouvelle », est le nom d’un terre-plein artificiel construit dans la mer de la baie d’Ōsaka afin d’y enfouir les déchets du centre du Japon. C’est un site d’enfouissement dit offshore, situé au large de la ville, à 6 km du port et à 2 km de Yumeshima, l’île la plus proche elle aussi constituée de déchets. À vrai dire, Shintō n’est pas encore une île : pour l’heure, c’est une sorte de giga-bassine de 95 hectares partiellement remblayée, où des déchets sont quotidiennement convoyés en barge pour y être enterrés – ou plutôt immergés. Le public n’y a pas accès, à l’exception de la « visite d’étude (kengaku) » qu’organise tous les mois le Centre d’amélioration environnementale du front de mer de la baie d’Ōsaka1, l’entreprise publique qui gère le site. Ce jour-là, nous sommes une vingtaine de participant·es.

Nous voilà sur le quai, assorti·es dans nos gilets de sauvetage orange fluo et nos casques blancs, tous deux floqués d’un logo en forme d’oiseau stylisé censé figurer un phénix. Car Shintō fait partie du « Plan Phenix », un ensemble de quatre terre-pleins destinés à l’enfouissement de déchets, répartis dans la zone portuaire d’Ōsaka. En plus de deux presqu’îles déjà comblées à Amagasaki et à Izumi Sano, deux îles sont en cours de remplissage : Shintō à Ōsaka donc, et Kōbe oki, un autre site distant de 7 kilomètres et rattaché à la ville de Kōbe dans le département voisin de Hyōgo. C’est dans ces deux îles artificielles, immenses infrastructures d’« entreposage contrôlé », que sont actuellement enfouis les déchets industriels et domestiques de la région du Kinki, correspondant à un bassin d’habitation de 22 millions de personnes, à hauteur de 8000 à 10 000 tonnes par jour2. Une partie de ces déchets est composée de mâchefers, ainsi que l’on nomme les cendres d’incinérateurs. D’où le nom de « Plan Phenix » pour le projet, et de « Centre Phenix » pour l’entreprise qui le réalise3 : des cendres renaissent de nouvelles terres. Une fois comblés, les sites d’enfouissement deviennent en effet du territoire. À Shintō, l’enfouissement des déchets a commencé en 2009. Le site est désormais rempli à 50% et pourra être utilisé pendant 10 années encore. Après quoi il sera plein, et deviendra à son tour un territoire.

Après un bref topo sur le déroulé du parcours par monsieur Kotani, l’employé du Centre Phenix qui anime la visite, notre petit troupeau orange et blanc est prestement conduit vers le promontoire d’observation, sans lequel on ne verrait pas grand-chose tant le site est plat, presqu’autant que la mer qui l’entoure. Nous restons un moment sur la petite plateforme à regarder de loin les camions-benne chargés de déchets faisant des allers-retours entre les barges et les bassins, semblables à des jouets colorés. Je reconnais à peine le site que j’ai scruté depuis les cartes satellite, avec ses parties comblées recouvertes de terre et d’autres encore en eau, encadrées par des digues larges de plusieurs dizaines de mètres – car les bassins d’enfouissement ne communiquent évidemment pas avec la mer.

Le vent couvre les explications de monsieur Kotani, que chacun·e fait toutefois mine d’écouter poliment. La plupart des participant·es sont des fonctionnaires des communes de la région ou des professionnels du domaine des déchets. Je suis la seule « habitante ordinaire », inscrite six mois plus tôt pour la visite. Entre temps, j’ai pu rencontrer monsieur Kotani dans les bureaux du Centre Phenix pour un entretien, visiter le site d’enfouissement de Kōbe et éplucher Ilandfill, le bulletin d’information du Plan Phenix publié quinze années durant. Je fais donc moi aussi semblant d’écouter, fascinée par le balai des petits camions-benne et par la vue dégagée sur la baie d’Ōsaka, que je sillonne depuis deux ans dans le cadre d’une enquête ethnographique : devant nous, l’île de Yumeshima et quelques immeubles de la métropole que l’on devine en arrière-plan ; à notre gauche, les terre-pleins d’Amagasaki ; à notre droite, la forêt de la presqu’île de Sakai, elle aussi faite de déchets. Et derrière nous, au loin, les montagnes de la grande île d’Awaji, dont la mythologie japonaise raconte qu’elle a été la première île à être créée par Izanami et Izanagi, le couple de divinités fondatrices du pays4.

Vue de Shintō depuis le promontoire. Au fond, le port d’Ōsaka. Photo EL.

Des îles, le Japon en compte 6000, majoritairement montagneuses et couvertes de forêts, souvent très petites mais dont beaucoup sont truffées d’infrastructures et dont la principale, Honshū, est traversée par la première mégalopole au monde. Que faire des déchets industriels, des gravats, des terres de construction, des sédiments de dragage des ports ? Que faire des résidus produits chaque jour par les 1000 incinérateurs du pays ? Réponse : du territoire. Enterrer, boucher, combler, agrandir des ports et édifier des îles à partir de rien, comme dans les baies de Tōkyō et d’Ōsaka. Si les sites contrôlés d’enfouissement de déchets existent ailleurs dans le monde, au Japon ils n’ont pas seulement remplacé les décharges et autres empilements des bords de ville ou des fonds de vallée : le traitement des déchets est associé à l’agrandissement des zones portuaires. Dans un pays réputé pour son manque de territoire constructible, le Plan Phenix fait ainsi d’une pierre deux coups – « d’une pierre, deux oiseaux », comme on dit au Japon.

Ici, il faut que je précise comment je suis arrivée au Centre Phenix : par les oiseaux, justement. Pas ceux que l’on observe couramment au-dessus des décharges (vous l’aurez compris, les îles en déchets façon Phenix ne sont pas des empilements sauvages ouverts à tous les vents). Si je suis arrivée à Shintō, c’est via l’île voisine de Yumeshima, où des oiseaux migrateurs – sternes, limicoles, canards… – sont venus par milliers durant des décennies : sur le territoire construit avec des déchets et devenu terrain vague car trop longtemps délaissé, des zones humides s’étaient spontanément créées, comme pour remplacer les estrans de la baie, peu à peu bétonnés au cours du 20e siècle. Or, ces zones humides sont vitales pour des oiseaux qui font le trajet le long de la plus grande voie migratoire du monde, la voie de l’Est-Australasie (EAAF). Si l’artificialisation des côtes est la cause principale de leur déclin brutal, il arrive que les oiseaux y trouvent malgré tout un site où séjourner, aussi précaire qu’éphémère. C’est pourquoi, même si cet article porte sur les terre-pleins et les déchets, il se termine auprès des sternes naines (Sterna albifrons), qui nichent désormais à Shintō.

Lire aussi | Perdre les oiseaux・Emilie Letouzey (2024)

Du point de vue des déchets, on devine l’immensité des questions que soulève une infrastructure telle que le Plan Phenix. Encore faut-il les formuler, ce qui n’est pas évident dès lors que l’on veut tenir ensemble les déchets et la fabrication du territoire. Au Japon, où le tri sélectif est méticuleusement ordonné, où le ramassage collectif des déchets est un sport national, où les camions de collecte diffusent des musiques familières et où les incinérateurs ont des mascottes, le monde des déchets paraît familier. Les terre-pleins de la baie d’Ōsaka donnent l’impression de le découvrir depuis un angle inédit, monumental. Pourtant, plus j’enquêtais sur le Plan Phenix, plus j’ai eu l’impression d’un continuum. Avant de dire pourquoi, il me faut partir des terre-pleins en déchets en tant qu’infrastructures : comment sont-ils faits ? Qu’impliquent-ils pour le traitement des déchets au Japon ?

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Les terre-pleins de la baie d’Ōsaka

Lorsqu’on est dans la zone du port à Ōsaka, on est souvent sur des déchets. En général on ne le sait pas, et même quand on le sait, on l’oublie. Mais j’ai été stupéfaite en découvrant les sites Phenix : malgré plusieurs années de vie à Ōsaka, je n’avais jamais fait attention à ces îles en forme de polygone pourtant bien visibles sur les cartes satellite, que j’utilise fréquemment. Je ne suis pas la seule : il est arrivé que des habitant·es de la région découvrent leur existence alors que nous en parlions. Certes, ces sites sont éloignés de l’expérience ordinaire puisqu’on ne peut pas y aller. Mais pour un enfouissement, c’est gagné : en plus de faire disparaître les déchets, le site lui-même est oublié.

À gauche, les sites d’enfouissement de déchets du Plan Phenix, indiqués en rouge : le site offshore de Kōbe ; la presqu’île d’Amagasaki ; Shintō, le site offshore d’Ōsaka (vue du ciel à droite) ; le site d’Izumi Ōtsu. Photo EL.

En japonais, « terre-plein » se dit umetate, contraction de umeru, « enterrer » et tateru, « ériger ». Umetatechi, le territoire gagné sur la mer, signifie donc « construire en comblant » – on enfouit et on édifie en même temps – et peut désigner des extensions du territoire existant ou bien des îles créées de toute pièce. Pour la zone du port, le terme est vraiment approprié tant elle est le résultat de creusements et comblements successifs, d’énormes déplacements de matière. À commencer par les sédiments de dragage, qui ont constitué Tenpōzan (la « montagne [de l’ère] Tenpō [1830-1844] »), un monticule résultant d’une vaste opération de dragage des sédiments des fleuves se jetant de part et d’autre du port d’Ōsaka à l’époque d’Edo en 1831, encore bien visible aujourd’hui. Aux sédiments de dragage, produits en quantités d’autant plus grandes que les navires puis les cargos ont eu besoin d’un tirant d’eau de plus en plus profond, se sont ajoutés au 20e siècle – et surtout à partir de 1950 – les terres d’excavation des travaux d’infrastructure, les gravats de construction (produits eux aussi en quantité d’autant plus grande que le renouvellement du bâti est rapide et les séismes fréquents), puis les déchets.

Carrelage du port d’Ōsaka représentant l’estampe Ōsaka tenpōzan 大坂天保山, issue de la série Lieux fameux de notre pays 本朝名所 de Utagawa Hiroshige 1er 初代歌川広重, vers 1833.

Jusque-là, les déchets étaient entassés tels quels dans des décharges terrestres. À Ōsaka, dans les années 1960, la principale décharge est située sur la zone humide de Tsurumi au nord-est de la ville. Elle a produit un monticule de 40 mètres lui aussi toujours visible aujourd’hui, devenu un parc où affleurent des conduits pour le méthane qui continue à s’échapper du sous-sol5.

Avec la création de nouveaux terrains artificiels sur la mer, des décharges portuaires sont créées, d’abord sur le même principe élémentaire de déversement quotidien des déchets bruts. À Tōkyō, au début des années 1960, une montagne de déchets s’est ainsi formée sur l’île de Yume no shima (« l’île des rêves »). Elle est tellement envahie de mouches qu’on y largue de l’insecticide par hélicoptère. En 1965, les mouches infestent l’arrondissement voisin, provoquant une mobilisation des habitant·es et nécessitant l’intervention des forces d’autodéfense – l’épisode est connu sous le nom de « guerre des ordures »6. Il a engendré un effort national contre les méga-décharges à ciel ouvert.

Sur l’île de Yume no shima à Tōkyō, une montagne de déchets se forme dans les années 1960. Elle est tellement envahie de mouches qu’on y largue de l’insecticide par hélicoptère.

C’est à la même époque qu’apparaissent les premiers projets d’enfouissement des déchets dans des infrastructures maritimes conçues à cette fin. Avec les terre-pleins en déchets, non seulement des déchets sont employés pour combler la baie et fabriquer du territoire, mais combler la baie devient la manière de traiter des flux de déchets en augmentation constante. Une version maritime des « sites d’entreposage finaux (saigo shobunjō) », équivalent japonais des « Centres d’enfouissement techniques » français. L’île de Yumeshima à Ōsaka (autre « île des rêves » homonyme de celle de Tōkyō) et la presqu’île dite « Secteur 7-3 » de la ville voisine de Sakai sont alors les plus vastes sites d’entreposage maritimes du pays. Leur remplissage démarre au début des années 1970, alors qu’au Japon sont promulguées deux lois encadrant d’une part la gestion des déchets et d’autre part les activités industrielles en mer Intérieure de Seto, obligeant à modifier les plans de construction des terre-pleins pour les conformer (étanchéité avec la mer, zonage par catégorie de déchets…)7 ; au même moment, la Convention de Londres interdit les déversements de déchets dans la mer8. Désormais, ces sites accueillent l’essentiel des gravats, sédiments de dragage, terres d’excavation et terres polluées. L’île de Yumeshima est accréditée pour recevoir les cendres des déchets ménagers de la région et de nombreuses catégories de déchets dangereux, dont les PCB ou l’amiante.

De nombreux terre-pleins de la zone du port sont fait de déchets, mais pas tous : combler avec des déchets prend du temps (et l’objectif est justement de faire durer la capacité d’accueil des sites), or il arrive qu’il faille aller vite. Plusieurs îles au large de Kōbe sont par exemple issues du programme « De la montagne à la mer (Yama kara umi e) », qui consistait à extraire de la terre et des pierres dans les montagnes voisines de Sanda et à les convoyer sur d’immenses tapis roulants jusqu’à la côte, d’où elles étaient transportées en barge jusqu’aux chantiers maritimes. Quant à l’aéroport du Kansai (plus de 1000 hectares à près de 20m de profondeur), comblé avec des terres apportées depuis trois montagnes de la région et inauguré en 1994, il a été construit si vite que l’affaissement combiné de la structure et du fond alluvial sous-marin oblige à rehausser régulièrement les pistes9.

Photo du tapis roulant et du poste de chargement du programme « De la montagne à la mer » à Suma, à côté de Kōbe. Photo : Musée des archives de Kōbe/Kōbe shimbun 神戸新聞NEXT.

Du point de vue du métabolisme urbain, c’est-à-dire de l’étude des flux de matière et d’énergie sur le territoire de la ville, la zone du port est donc le résultat de gigantesques brassages : on y édifie du territoire avec des bouts de montagne ou des gravats, on y coule du béton, on y extrait des sédiments pour les déposer plus loin, on y enfouit les déchets de matières et de marchandises qui, pour beaucoup, y ont un jour transité… L’immense infrastructure qui s’étend en croissant sur 60 km, longtemps support de l’industrie lourde, est en effet lentement gagnée par la logistique et son monde (cargos, containers, grues, entrepôts, routes et camions). C’est dans ce contexte que s’est déployé le Plan Phenix.

La zone du port est le résultat de gigantesques brassages : on y édifie du territoire avec des bouts de montagne ou des gravats, on y coule du béton, on y enfouit les déchets.

Comment fabriquer une île en déchets : le Plan Phenix 

Le Plan Phenix de la baie d’Ōsaka (Ōsakawan Fenikkusu keikaku), ou Centre Phenix, est une infrastructure multi-site d’entreposage contrôlé des déchets gérée par une entreprise publique, dont la construction et la maintenance sont assurées par des entreprises privées sous contrat. Le projet, élaboré au milieu des années 1970, est approuvé en 1977. La construction des deux premiers terre-pleins, les presqu’îles d’Izumi Ōtsu au sud d’Ōsaka (203 hectares) et d’Amagasaki au nord (103 hectares), démarre en 1982. Ces deux sites, où des déchets ont été enfouis tout au long des années 1990, ont fermé dans les années 2000 et accueillent désormais des entrepôts logistiques ou des événements (concerts, courses de voiture…). Les deux sites d’enfouissement offshore en cours de remplissage sont plus récents : celui de Kōbe réceptionne des déchets depuis 2001 (88 hectares), et Shintō, à Ōsaka, a donc ouvert en 2009.

Comment construit-on un site d’enfouissement en pleine mer ? Prenons le cas de Shintō, où les travaux d’établissement des fondations commencent en 2001. Première étape : l’amélioration du sol (jiban kairyō). Afin de stabiliser le fond marin situé de 13 à 15 mètres de profondeur et éviter un affaissement des couches alluviales anciennes sous le poids de l’infrastructure, on y enfonce d’épais pieux creux que l’on remplit de sable compacté10. Seconde étape : la construction des fondations. Des pierres – venues de carrières situées sur des îles de la mer Intérieure de Seto – sont empilées, qui vont supporter les digues. Troisième étape : l’installation des caissons sous-marins, qui à Shintō commence en 2005. Quinze caissons en béton de 300 m de long sont immergés et entourés d’une paroi de palplanches en acier destinée à isoler l’infrastructure de l’eau de mer. Les digues extérieures sont ensuite consolidées par un amas de béton destiné à produire un plan incliné11. Toutes ces étapes sont réalisées sous l’eau : c’est le domaine très développé au Japon de la construction marine (marine construction, abrégé en maricon, par opposition à zenecon, general construction, pour les travaux terrestres)12. Enfin, un ensemble de terrassements est réalisé en pierre et terre pour constituer des digues internes, délimiter des secteurs et permettre la circulation des véhicules.

L’ensemble requiert près de dix ans de travaux. C’est pourquoi ce n’est qu’en 2009 que démarre l’enfouissement des déchets à Shintō, déchets que l’on va progressivement déverser dans l’immense réservoir ainsi créé.

Maquette de la structure de l’île de Shintō (en « coupe ») dans les bureaux de l’entreprise Phenix : les deux vitres bleues sur les côtés représentent la surface de la mer, les rayures jaunes figurent les pieux de sable compacté et les parties grises correspondent aux fondations en pierre, terre et béton. Photo EL.

Les déchets sont convoyés depuis les neuf bases de chargement réparties sur l’ensemble de la baie, d’où les barges font des allers-retours avec Shintō13. Le Centre Phenix distingue jusqu’à une cinquantaine de catégories de déchets – gravats, boues et cendres contenant ou non du mercure, déchets métalliques, résidus de caoutchouc ou de verre, déchets traités par pyrolyse, etc. – mais les regroupe en 15 catégories sur la grille tarifaire. À l’instar de beaucoup d’infrastructures reconnues d’intérêt public, il faut en effet payer pour l’usage du Centre Phenix : entreprises et municipalités paient au prorata de la quantité et selon la catégorie de déchet, la tonne revenant de 50 à 135 euros (9000 et 25 000 yens)14. Elles doivent fournir des certificats de contenu, acheminer elles-mêmes les déchets sur les bases où ils sont inspectés visuellement et analysés à partir d’échantillonnages. Sur les sites d’enfouissement, les déchets sont ensevelis par catégories générales : les déblais, les déchets généraux, déchets industriels privés, sédiments de dragage, boues d’épuration…15 et des secteurs sont prévus pour les déchets dangereux (amiante, mercure, PCB, etc.), dont l’acceptation est limitée. Pour les autres catégories, les substances polluantes sont réglementées16. (Malgré cette diversité de catégories, les déchets que l’on voit être déversés par les camions benne ressemblent invariablement à du gros sable gris-noir mouillé, comme une purée de déchets.)

Lire aussi | Zoner en territoire contaminé : dans les replis de Fukushima・Sophie Houdart (2026)

Les bassins d’enfouissement sont remplis l’un après l’autre. À Shintō, la quantité maximale de déchets pouvant être traitée en une journée est de 6 000 tonnes, soit 600 camions-bennes. Ces quantités peuvent être temporairement relevées lors d’aléas : à la suite du séisme de terre de Kōbe en janvier 1995, les deux îles du Plan Phenix ont par exemple accueilli 2,8 millions de tonnes de déchets supplémentaires, essentiellement des gravats.

À mesure qu’un bassin se remplit, l’eau de mer qui y est enfermée est évacuée et traitée dans une usine d’épuration flottante17. L’eau y subit une série de traitements – prétraitement mécanique, traitement bactérien, traitement dit de « floculation-décantation », traitement stérilisant – avant d’être rejetée en mer.

En haut à gauche : les palplanches d’acier émergeant des digues ; en haut à droite, la base de chargement à Kōbe ; en bas à gauche, la station d’épuration des eaux flottante sur l’île de Kōbe ; en bas à droite, le site Phenix d’Amagasaki en 2023 (aménagé depuis). Photos EL.

Dans son contour actuel, le site de Shintō s’étend sur 95 hectares – « environ 24 [fois la taille du stade de baseball de] Kōshien », pour reprendre l’unité de mesure des surfaces de référence dans la région – et est rempli à hauteur de 50%, ce qui laisse environ dix années supplémentaires d’enfouissement avant remplissage. Le site de Kōbe est quant à lui comblé à 85% et sera rempli d’ici à 2028. Sur les deux îles, des extensions dont on voit clairement les contours sur les photos satellite sont en cours de construction (109 hectares pour Shintō, au moins 200 hectares pour Kōbe). Mais le Centre Phenix ne communique pas sur ces extensions à venir pourtant visibles même depuis le port, et ses employé·es éludent les questions sur les extensions. La raison en est que des évolutions de la loi de protection de la mer Intérieure de Seto pourraient entraver la construction de nouveaux terre-pleins – dans une mer qui compte 700 îles naturelles et une quarantaine de terre-pleins artificiels.

Par ailleurs, à l’instar de nombreuses installations de traitement des déchets, le Centre Phenix se visite, communique auprès du public et a même une mascotte. En 2025, ses employé·es ont par exemple participé au tournage d’un clip vidéo qui met en scène des travailleur·ses des centres de tri, incinérateurs et sites d’enfouissement de la région d’Ōsaka, détournant une chanson du groupe à succès AKB48 afin d’en faire une « Version installations de traitement des déchets [dans la région du] Kansai » (ci-dessous). On peut y voir plusieurs installations Phenix : les bases de chargement, les sites d’enfouissement ou les usines flottantes de traitement de l’eau.

Évoquant davantage un poussin mignon qu’un oiseau mythique, la mascotte du Centre Phenix est donc l’emblème d’un plan de recyclage géant : « les déchets renaissent sous la forme de territoire (gomi ga tsuchi ni yomigaeru) ». On peut cependant demander, à la suite de l’écrivaine Lucie Taïeb à propos de la décharge de Freshkills à New-York : s’agit-il vraiment de « recycler la terre » ?18 

Fenikkusu-chan, la mascotte du Centre Phenix.

Que veut dire « améliorer l’environnement » ?

Lorsque, de retour en France, je parlais des îles en déchets de la baie d’Ōsaka, la réaction de mes interlocuteur·ices était de les percevoir non pas comme du recyclage ou comme une « renaissance », mais comme une aberration écologique. Ne fuient-elles pas, polluant l’eau ? Ne vont-elles pas se rompre et se répandre dans la mer au prochain séisme ? La réponse rapide à ces questions est « non » : on ne peut exclure des fuites, mais en vertu de la loi déjà mentionnée sur la mer Intérieure de Seto, qui porte essentiellement sur la qualité de l’eau, il y a trop de contrôles pour laisser échapper des pollutions graves19 ; concernant les risques liés aux séismes, le puissant séisme de Kōbe en 1995, qui a affecté la côte nord de la baie, a provoqué de profondes brisures dans le béton des terre-pleins mais ceux-ci ont tenu, y compris les terrains Phenix20. Du fait des techniques d’ingénierie et du système bureaucratique et législatif propres au Japon, le Centre Phenix est un site effectivement contrôlé. Les déchets ne sont plus amoncelés dans des décharges, ils ne quittent pas la technosphère, ni d’ailleurs la région de consommation – même s’ils en sont soustraits (enfouis) et éloignés (offshore) –, alors que l’exportation des déchets des pays riches du Nord dans les pays pauvres du Sud reste courante. Avec Phenix, les déchets finissent dans la mer, non pas sous forme de décharge ou de soupe de plastique, mais confinés dans des boites. Bien rangés.

Avec Phenix, les déchets finissent dans la mer, non pas sous forme de décharge ou de soupe de plastique, mais confinés dans des boites. Bien rangés.

Cela ne veut pas dire que les îles du Centre Phenix ne posent aucun problème écologique : elles en posent. 

D’abord non pas tant comme site d’enfouissement que comme terre-pleins construits dans la baie. Ainsi que l’explique le professeur Nabeshima Yasunobu, chercheur retraité du département des ressources halieutiques de la préfecture d’Ōsaka, les terre-pleins du front de mer, en plus d’ensevelir les fonds marins, ont causé leur asphyxie en immobilisant les sédiments pollués charriés par les fleuves et en faisant obstacle aux courants de la baie, ou en les inversant21. Si les populations de poissons sont effondrées depuis longtemps, les « marées bleues (aoshio) » dues à l’asphyxie, qui ont succédé aux « marées rouges (akashio) » causées par la pollution, les empêchent de se reconstituer. « Il aurait fallu interdire les terre-pleins », soutient Nabeshima, qui est encore aujourd’hui sidéré que la population tout entière se soit laissée séparer de la mer et de la pêche par le port industriel. « Mais c’est ainsi : à l’époque de la Haute croissance [1955-1973], tout le monde s’est résigné ». Les terre-pleins du Centre Phenix affectent donc l’écosystème, nonobstant leur programme dit de « Conservation des habitats marins », basé sur des digues sous-marines inclinées plantées d’algues et mené avec des scientifiques et l’ONG Blue Ocean. Nabeshima, qui en fait lui-même partie, déplore ce pis-aller, qui relève à ses yeux du pur greenwashing (un terme employé tel quel en japonais). Rien que pour cela, le « Centre d’amélioration environnementale du front de mer de la baie d’Ōsaka » porte mal son nom car il n’améliore pas la baie mais la détériore.

Quant au Plan Phenix en tant que site d’enfouissement des déchets, il oblige à étendre l’analyse environnementale à la chaîne des déchets : considéré seul, il semble se dérober.  

Que les déchets soient massivement enfouis pour devenir du territoire n’est pas nouveau et on trouve partout dans le monde des villes en partie construites sur des détritus du passé. Mais le Plan Phenix date d’une époque bien particulière, les années 1970-1980, où dans de nombreux pays industriels, on passe d’un paradigme de l’abandon basé sur la décharge (on empile les déchets tels quels) à un paradigme de la gestion basé sur des techniques de « traitement », notamment l’incinération et l’enfouissement22. Au Japon, c’est par centaines que l’on construit des incinérateurs : le pays en compte aujourd’hui près de 1030 (contre 125 incinérateurs en France, pour une population deux fois moins importante), dans lesquels sont brûlés 80% des déchets courants (foyers, PME, établissements publics…), ce qui en fait le premier pays incinérateur au monde, en proportion comme en quantité23. Les incinérateurs ayant « besoin » de déchets à brûler pour fonctionner – déchets dont ils permettent de réduire la masse de 85% en moyenne – leur seule existence est un appel à alimenter un flux constant de déchets. L’existence d’infrastructures d’enfouissement telles que les terre-pleins en déchets a permis d’absorber l’explosion de la production d’artefacts de la société de consommation et du déménagement de territoire par le secteur du BTP, et même de la « valoriser » en produisant du territoire24.

Outre que la gestion technique des déchets est elle-même à l’origine de graves cas de pollution (notamment à la dioxine25), elle a non seulement permis l’explosion des quantités de déchets (davantage qu’elle ne l’a « solutionné ») mais également créé un puissant verrou technique du fait de son besoin de déchets. La gestion des déchets est donc structurellement dépendante de leur production, et empêche leur réduction. En tant qu’installation de traitement des déchets, le Plan Phenix participe de cette incitation systémique à la production : il n’est donc pas un problème écologique en lui-même mais en tant que maillon d’un système. Son modèle économique repose sur l’enfouissement constant de déchets puisque l’entreprise Centre Phenix dépend du paiement à la tonne des déchets qu’elle réceptionne. Surtout, sa configuration en « giga-bassine » incite au remplissage.

Les terre-plein en déchets ont permis d’absorber l’explosion des déchets du secteur du BTP et de la production d’artefacts, et même de la “valoriser” en produisant du territoire.

Les rares opposant·es au Plan Phenix qui se sont mobilisé·es à Ōsaka dans les années 1990 l’avaient bien compris. Parmi eux, l’Association pour éliminer la pollution à Ōsaka écrivait : « Avec des îles en déchets, tout ce que vous ferez pour réduire les déchets sera vain : à quoi bon réduire quand on peut remplir de tels volumes ? Les terre-pleins passent pour une solution mais ils sont l’obstacle suprême au problème des déchets26 ».

Lire aussi | L’écologie de M. Propre・Baptiste Monsaingeon (2019)

Aspirer les déchets, aspirer l’attention

Je disais plus haut que ma découverte du Plan Phenix est venue bouleverser l’expérience des déchets que j’avais jusque-là. Au Japon, l’importance accordée aux déchets dans la vie courante donne l’impression d’une véritable culture de la gestion des déchets. Mon enquête, suscitée par les îles en déchets de la baie, a d’abord confirmé cette impression. Alors que je découvrais, fascinée, les installations de traitement des déchets de la région, je constatais que toutes sont équipées pour recevoir du public – près de la moitié des Japonais·es en visitent au moins une au cours de leur vie27. Je participai régulièrement à des sessions de ramassage de déchets, à des ateliers sur les déchets et même à des fêtes des déchets. Je finissais par me dire : voilà un pays qui surproduit et qui le sait, mais qui prend le sujet à bras le corps.

L’incinérateur de boues d’épuration (à gauche) et l’incinérateur de déchets solides (à droite) de l’île de Maishima à Ōsaka (une île elle aussi faite de déchets) se visitent autant pour les bâtiments que pour leurs techniques de traitement. Les deux installations ont été conçues par l’architecte autrichien Friedensreich Hundertwasser (1928-2000), connu pour son engagement écologiste et pour ses bâtiments plantés d’arbres. Photo EL.

Si le Plan Phenix m’a d’abord semblé si différent de ce petit monde des déchets devenu familier, c’est en raison de son ampleur. Dès lors qu’il s’agit de remplir la mer, de fabriquer du territoire et de refaçonner la baie, on ne peut plus se raconter que la gestion des déchets se résout avec du tri et des installations bien conçues. À mesure que j’explorais le Plan Phenix, cet écart s’atténua toutefois, et finit par disparaître : la raison en est que la communication de l’entreprise Phenix est elle aussi fondée sur cette même culture de la gestion des déchets du quotidien. Les bulletins Ilandfill publiés par l’entreprise ou les événements qu’elle organise promeuvent le ramassage citoyen des déchets ou les notions désormais bien connues de zéro déchet, d’upcycling, ou de « 5R » (acronyme pour « Refuser, Réduire, Réutiliser, Recycler et Rendre à la terre »). L’écart initial avait donc laissé la place à un continuum, celui des petits gestes individuels (bien ranger nos déchets), mais surtout celui de la gestion. C’est en effet le corolaire d’une culture du déchet largement partagée : elle enferme l’attention non seulement sur la gestion des déchets déjà là, mais aussi sur les seuls déchets à portée de gestion des citoyens : les déchets domestiques. Il n’est jamais question de production. Et surtout, il n’est jamais question de la part colossale des déchets : les déchets industriels.

Il n’est jamais question de production. Et surtout, il n’est jamais question de la part colossale des déchets : les déchets industriels.

Que se passe-t-il quand on regarde la littérature sur les déchets et sur les flux métaboliques ? « Apparaissent alors les 98,5% de déchets restants, cette masse incommensurable et toxique produite par nos industries », comme l’écrit Lucie Taïeb dans Freshkills28. Apparaissent les centaines et milliers de tonnes quotidiennement enfouies à Shintō et à Kōbe de sédiments, de gravats, de scories, de terres et de boues polluées, de plastiques et de caoutchouc, toutes ces catégories que l’on trouve dans les grilles tarifaires du Centre Phenix, mais que l’on ne distingue pas dans la purée noire des déchets déversés en continu par les camion-bennes. « Apparaître » est un bien grand mot : pas plus les photos ou les visites sur place que les données de la littérature ne laissent percevoir cette part de déchets industriels, écrasante partout dans le monde. 90% selon l’Association pour faire disparaître la pollution à Ōsaka, 97% selon l’anthropologue Max Liboiron, 98,5%, donc, selon les recherches de Lucie Taïeb – un pourcentage estimé qui dépend surtout de la manière de compter. Sans cette part industrielle, la raison d’être du Plan Phenix disparaitrait : quel besoin de produire une infrastructure parmi les plus lourdes et les plus compactes qui soient, si on n’avait à traiter que 3 ou même 10% du total des déchets ? L’énormité métabolique des déchets industriels est soustraite à l’expérience ordinaire, elle circule en circuit plus ou moins fermé dans les carrières, les cargos, les usines, les chantiers, les camions et enfin les barges et les bassins où elle est engloutie. De la même manière, la question des déchets se limite pour le public aux quelques pourcents dont il a l’expérience, dans un circuit tout aussi fermé. 

Lire aussi | Accumuler de la matière, laisser des traces・Nelo Magalhães (2019)

Que la gestion des déchets encourage systémiquement leur production et empêche leur réduction, et que la question des déchets soit polarisée sur la sphère domestique en laissant dans l’ombre la production détritique industrielle, ce sont là deux constats classiques pour les rudologues, ainsi qu’on appelle les spécialistes des déchets. Des constats si massifs que l’on bute sur eux sans pouvoir les dépasser. Pourtant, étrangement, une fois le vertige initial atténué, j’ai fini par m’y habituer, à ces constats. Peut-être parce que, dans mon exploration du Plan Phenix, j’ai trouvé je crois plus vertigineux encore : les projections d’aménagement des deux îles offshore d’Ōsaka et de Kōbe. Pour celle-ci, un dessin sur le site de la mairie figure l’île étendue et couverte de piles de containers ; pour Shintō à Ōsaka, une carte prospective de la zone du port indique plus de 80 hectares terminaux à containers. Ces territoires en déchets sont donc dévolus au transport de marchandises. Celles-ci étant amenées à devenir des déchets, la boucle est bouclée – et perpétuée.

Carte prospective du port d’Ōsaka parue en 2006, c’est-à-dire avant l’ouverture du site de Shintō, qui prévoit un triplement de la surface de l’île et sa connexion par la route à l’île de Yumeshima. Bureau du Centre Phenix.

Voilà donc le projet : faire transiter des petites boites à marchandise sur des grosses boites à déchets, du neuf sur du mort, sur l’immense envers mort et immergé de l’industrie et du libre-échange. Un projet qui entérine la production de masse et la croissance, précisément ce qu’il faudrait cesser pour diminuer les déchets. « L’obstacle suprême au problème des déchets » n’est-il pas là, dans ce monde de la logistique en constante expansion ? Plus encore que les sites du Plan Phenix, les ports à containers permettent et alimentent ce qu’on pourrait appeler une « chaîne détrimentale »29 de matières et de choses, qui se perpétue au détriment de : de l’environnement, des milieux de vie, des humains et du vivant. Pour finir en détritus.

Voilà donc le projet : faire transiter des petites boites à marchandise sur des grosses boites à déchets, du neuf sur du mort, sur l’immense envers mort et immergé de l’industrie et du libre-échange.

Les sternes

Retour sur l’île de Shintō.

Tous les jours à 17 heures, les employé·es du Centre Phenix repartent en bateau vers la ville, ne laissant derrière eux que le ronron des moteurs de l’usine de traitement de l’eau, entièrement automatisée. D’avril à juillet, un bruissement émane pourtant des terrains caillouteux qui bordent les bassins d’enfouissement. C’est celui des milliers de sternes naines (Sternula albifrons), une espèce d’oiseau maritime classée vulnérable au Japon.

Pendant plus de vingt ans, les sternes nichaient non loin de là, sur les terrains alors délaissés de l’île voisine de Yumeshima. Pour ces migratrices qui viennent nicher dans le sable ou les cailloux après avoir fait des milliers de kilomètres d’une traite depuis l’Australie le long de la voie migratoire austral-asiatique, la baie d’Ōsaka fait partie depuis toujours des habitats parfaits : une énorme zone humide faite d’estrans et de deltas. Du moins jusqu’à l’artificialisation du 20e siècle, qui s’est d’autant plus acharnée sur les zones humides du monde entier que la plupart sont sur des estuaires devenus entre temps des mégapoles. Alors, pour les sternes, qui nichent à même le sol, tout terrain caillouteux est bon à prendre, même celui des terre-pleins en déchets. Délogées de celui de Yumeshima par des chantiers dans les années 2020, c’est sur les terrains tout neufs de Shintō qu’elles sont venues s’établir.

Un lieu de repli propice : aucun humain la nuit, et pas de chat comme à Yumeshima où ils sont venus par la route. Si bien que, d’après l’ornithologue Moriya Toshifumi et son groupe de recherche sur les oiseaux de rivage, les îles du Plan Phenix sont désormais le premier site du pays pour les sternes : on estime que plus du tiers des sternes venues au Japon en 2025 a niché sur Shintō et sur l’île de Kōbe.

Une journaliste était cependant venue en 2023, accompagnant l’équipe du parc ornithologique de Nankō, dans le port d’Ōsaka. Elle avait filmé les sternes nichant à Shintō pour un épisode de « Darwin est là ! (Dāuin ga kita) », une émission populaire diffusée sur la chaîne de télé NHK.

Durant les mois où les sternes sont là, le Centre Phenix fait dévier les trajets des camions afin qu’ils n’approchent pas des zones de nichée. L’entreprise coopère également à l’organisation d’enquêtes avec les membres de la Branche d’Ōsaka de l’Association des oiseaux sauvages et du Groupe d’enquête sur les êtres vivants de Yumeshima (deux collectifs dont je suis membre). Sur la base des données récoltées, on a estimé le nombre de sternes à 2500 en 2023 puis à plus de 5000 en 2025. Mais le Centre Phenix ne souhaite pas rendre l’information publique : même si le site est connu jusqu’au Ministère de l’environnement, consigne est donnée de ne pas avertir les journalistes. Une posture bien comprise par les associations de protection de la nature, s’agissant d’une situation advenue sur le site d’une entreprise dont l’activité n’est pas d’accueillir des oiseaux, ni de les protéger. Abriter officiellement une population d’oiseaux classés sur liste rouge des espèces menacées ne va en effet pas sans contraintes30.

Les îles du Plan Phenix sont désormais le premier site du pays pour les sternes : on estime que plus du tiers des sternes venues au Japon en 2025 a niché sur Shintō et sur l’île de Kōbe.

Lorsque Shintō sera plein et transformé en terrain, l’entreprise Phenix cèdera l’île au Bureau du port d’Ōsaka. Plutôt qu’un énième méga-port à container, ne peut-on pas y aménager un sanctuaire pour les oiseaux ? Un parc comme les îles en déchet de Tōkyō31 ou de Singapour32 ? C’est en tout cas ce que l’Association des oiseaux sauvages et du Groupe d’enquête sur les êtres vivants de Yumeshima se préparent aujourd’hui à demander, avec le soutien de l’ONG Bird life International. Car à Yumeshima, les années d’enquête et de plaidoyer ont échoué : outre un complexe avec casino prévu pour 2030, il est question de faire un circuit automobile sur le site de l’Expo 2025. C’est justement l’argument que les associations entendent utiliser : on n’a pas eu Yumeshima, donnez-nous Shintō pour les oiseaux. L’île leur reviendra-elle un jour ? Les mégaprojets seront-ils abandonnés ? Réponse dans 10 ans.

Restera-t-il seulement des sternes ?


Cet article est le troisième volet d’une série sur la baie d’Ōsaka. Déja parus dans Terrestres : Voitures volantes et vieux rêves capitalistes (juillet 2024) et Perdre les oiseaux (octobre 2024).

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Ōsaka wan kōiki rinkai kankyōseibi sentā. Son statut est peu courant car il s’agit de l’unique « Organisme agréé en vertu de la loi sur le Centre d’aménagement de l’environnement côtier à grande échelle » au Japon. Dans les faits, son fonctionnement est celui d’une entreprise publique, financée par les communes de la région du Kinki et par les gestionnaires des zones portuaires.
  2. Le Plan Phenix gère les déchets ménagers et industriels de 169 communes réparties sur 6 préfectures : Kyōto, Ōsaka, Hyōgo, Nara, Shiga et Wakayama.
  3. Fenikkusu Keikaku et Fenikkusu Sentā.
  4. Mythe raconté dans le Kojiki, le « Recueil des faits anciens » (8e siècle), considéré comme le plus vieux recueil écrit du Japon.
  5. L’amas de déchets a été recouvert de terre d’excavation afin d’accueillir une Exposition horticole en 1990, puis un parc commémoratif.
  6. Dix ans après la guerre des déchets, en 1975, alors que la décharge est fermée depuis plusieurs années et en cours de réhabilitation, dix ouvriers perdirent la vie au cours de travaux dans une explosion de méthane. À noter que c’est très probablement cette île de Yume no shima qui a inspiré le réalisateur Wes Anderson pour son film L’île aux chiens (2018).
  7. La loi n°137, « Loi relative au traitement et à la collecte des déchets » (1970) et la n°110 dite « Loi relative aux mesures spéciales pour la préservation de l’environnement de la mer de Seto » (1973).
  8. L’intitulé de ce texte est : « Convention sur la prévention de la pollution des mers résultant de l’immersion de déchets et autres matières ». Plusieurs catégories de déchets sont toutefois exclues du texte, voir Baptiste Monsaingeon, Homo detritus. Critique de la société du déchet, éditions du Seuil, collection « Anthropocène », 2017, p.62.
  9. Il s’agit des montagnes de Hannan non loin, de Wakayama plus au sud et d’Awaji, l’île en face. Quant à l’affaissement du sol de l’aéroport, il est corrigé par un vaste système de vérins hydrauliques situés sous les pistes (des images sur le site de l’aéroport ici).
  10. Technique dite du sand compaction (sando compakushion), dont les étapes sont réalisées depuis un navire spécial pouvant forer le fond marin.
  11. À noter que pour les blocs de béton, ils sont généralement moulés ailleurs puis immergés. Seule une petite partie de la construction nécessite de couler du béton directement dans l’eau, une technique maîtrisée de longue date dans la construction marine.
  12. À Shintō, c’est l’entreprise Rinkai Nissan kensetsu qui construit le terre-plein ; à Kōbe, c’est l’une des nombreuses filiales de l’entreprise Kobelco (ou Kōbe Steel).
  13. Les bases de chargement (hannyū kichi) sont réparties à Ōsaka, Sakai, Himeji, Izumiōtsu, Wakayama, Harima, Kōbe, Amagasaki et Tsuna.
  14. À titre d’exemple, 10 000 yens (env. 54 euros) par tonne pour les « déchets courants (ippan haikibutsu) », 14 000 y/t (76 euros) pour les plastiques industriels, 18 000 à 23 000 y/t pour les poussières industrielles.
  15. Pour donner une idée des proportions, les chiffres de 2003 indiquent 38% de déblais, 31% de déchets courants (une catégorie qui inclue les déchets domestiques mais va très au-delà), 15% de déchets industriels privés (minkan sampai), 12% de sédiments de dragage et 4% de boues d’épuration.
  16. À titre d’exemple, sont refusées les déchets contenant plus de 0,005 mg/L de mercure, 0,003 de PCB (hors déchets PCB désignés), ou encore 0,3 mg/L d’arsenic et dérivés. La dioxine fait partie des polluants que Phenix n’accepte pas, et je n’ai trouvé qu’une alerte de dépassement des seuils de dioxine en 2014, qui a donné lieu à des mesures de contrôle renforcé sur plusieurs années.
  17. Gérée par l’entreprise d’épuration Kobelco Eco-Solutions (Shinkō kankyō solutions), filiale de l’entreprise Kobelco (Kōbe Steel).
  18. Lucie Taïeb, Freshkills, recycler la terre, éditions Pocket, avril 2022 [2020].
  19. L’objectif était alors de remédier aux pollutions massives des eaux des fleuves et de la mer dans les années 1960, qui se poursuit aujourd’hui – le dernier scandale en date étant les fuites importantes de PFAS dans la rivière Yodo depuis l’usine Daikin située en amont d’Ōsaka.
  20. Même si les séismes provoquent systématiquement un affaissement des terre-pleins artificiels, un phénomène appelé « liquéfaction du sol ».
  21. Comme c’est le cas pour le gyre de Nishinomiya, au nord de la baie.
  22. Sans remplacer pour autant les innombrables dépôts d’ordures incontrôlés et autres déversements illégaux qui perdurent dans les pays riches, ou les gigantesques décharges à l’air libre qui grossissent dans les pays pauvres.
  23. Voir les schémas (en anglais) issus des chiffres de l’OCDE sur ce blog (en japonais) appelé « Réfléchir au problème des déchets dans les 23 arrondissements de Tōkyō ».
  24. Remarque qui vaut autant pour le Japon que pour la France, voir le chapitre 5 du livre de Nelo Magalhães, Accumuler du béton, tracer des routes : une histoire environnementale des grandes infrastructures, La Fabrique, 2024.
  25. Voir Peter Kirby, Troubled Natures : Waste, Environment, Japan, University of Hawai’i Press, 2011.
  26. « Le défi zéro terre-plein dans la baie d’Ōsaka (Ōsakawan · Umetate zero e no chōsen) », Seseragi shuppan, Ōsaka, 1998. L’Association pour éliminer la pollution à Ōsaka (Ōsaka kara kōgai o nakusu kai) existe encore, et je dois de nombreuses informations sur les déchets à son ancien secrétaire, le professeur Aoyama, décédé en septembre 2025.
  27. Dans les années 1980, la visite d’installations de traitement des déchets a même été mise au programme scolaire par le Ministère de l’éducation au Japon.
  28. Lucie Taïeb, Freshkills, recycler la terre, éditions Pocket, avril 2022 [2020], p.79.
  29. « Détrimental » (en anglais : detrimental, « néfaste ») vient de la même racine latine que détritus.
  30. Au Japon, la sterne naine Sternula albifrons est inscrite sur la « Liste rouge des espèces menacées – stade vulnérable (zetsumetsukigu 2 shu) » du Ministère de l’environnement depuis 2012.
  31. https://uminomoripark.com/
  32. https://en.wikipedia.org/wiki/Pulau_Semakau

L’article Trash territoire : gérer la technosphère au Japon est apparu en premier sur Terrestres.

PDF

31.03.2026 à 14:58

Le socialisme après l’IA

Evgeny Morozov

Un socialisme avec IA peut-il être autre chose qu’un capitalisme avec une interface améliorée ? Si le socialisme entend employer l’IA pour contribuer à une vie meilleure, prévient Evgeny Morozov, alors il lui faudra revoir entièrement son rapport à la technologie, abordée jusque-là comme un outil neutre à intégrer dans la société et ses institutions.

L’article Le socialisme après l’IA est apparu en premier sur Terrestres.

Texte intégral (9492 mots)
Temps de lecture : 22 minutes

Il y a quelques semaines, l’historien des techniques Guillaume Carnino pointait dans un article très documenté les limites d’une proposition de planification écologique venant de la gauche mélenchoniste. Il rappelait l’énorme matérialité du numérique, la puissance d’inertie des systèmes techniques et l’importance de l’histoire de l’industrialisation, dont la connaissance peut éviter de propager des représentations erronées sur la nature des changements colossaux à entreprendre.

Dans le sillage de ce débat, nous publions ce texte d’Evgeny Morozov, chercheur américain d’origine biélorusse, spécialiste du progrès technique et du numérique et de leurs implications politiques et sociales, connu notamment pour sa notion de « technosolutionnisme ».

Pour une part, ce texte poursuit l’analyse technocritique déployée par Carnino et Terrestres en montrant que la pensée socialiste se leurre en considérant la technologie comme un instrument neutre qui pourrait servir le « bien commun », une fois débarrassé des rapports de production capitalistes. La critique de Morozov est complémentaire au sens où elle formule d’autres arguments et ouvre encore davantage l’espace des problèmes que des mondes post-capitalistes auront à résoudre. Cependant, un aspect essentiel de cet article le fait diverger des analyses que nous publions régulièrement : Morozov passe sous silence la participation active des promoteurs de l’IA a l’écocide ainsi que l’énorme infrastructure qu’elle requiert.

Comme l’indique le chercheur Félix Tréguer dans un commentaire sur cet article de Morozov, « l’IA est fétichisée comme le véhicule idéal pour la fabrication de mondes socialistes – “expérimentation, découverte, le pouvoir de faire des mondes à partir d’idées” dont la médiation est désormais faite par le biais de cette technologie puissante. Le marché est fini, l’IA distribuée prend le relai – mais une nuance prométhéenne persiste. »

Alors que Morozov part d’un regard technocritique sur un courant du socialisme contemporain, son propos tombe ensuite sous le coup de cette même critique dès lors qu’il envisage une IA coupée de sa base matérielle, énergétique et infrastructurelle. Notre culture serait-elle si fondamentalement pro-technologie et habitée par l’idée que les sciences et les techniques permettent de nous arracher à la terre et à ses limites, que nous avons encore du mal à chausser durablement des lunettes technocritiques à même d’analyser le monde dans sa matérialité ?

Evgeny Morozov est le fondateur et éditeur de la plateforme The Syllabus et l’auteur de The Net Delusion : How Not to Liberate the World (non traduit) ; Pour tout résoudre, cliquez ici – L’aberration du solutionnisme technologique (Fyp éditions, 2014) ; ainsi que de Santiago Boys : les ingénieurs utopistes face aux Big Techs et aux agences d’espionnage (éditions Divergence, 2024).

Cet article est paru en décembre 2025 dans la revue The Ideas Letter sous le titre « Socialism after IA ». Traduction : Coby-Rae Crosbie.


L’intelligence artificielle a suscité une curiosité populaire rare. Non seulement auprès de ses investisseurs et fondateurs, mais également auprès de celles et ceux qui ouvrent leurs navigateurs, rédigent une question, et se sentent comme si quelque chose, de l’autre côté, réfléchissait avec elles et eux – aussi erronée que soit cette impression. Cette phénoménologie est importante. Quoi qu’on pense du battage médiatique, des fantasmes ou du tableau de capitalisation d’OpenAI, l’IA s’annonce comme une technologie aux limites poreuses, dont les utilités sont découvertes après son déploiement et dont les effets secondaires apparaissent là où personne ne les avaient envisagés. « Générative » n’est pas seulement un terme de marketing : il désigne une instabilité réelle.

Pour les socialistes, cette instabilité présente un défi spécifique. Et leurs réflexes sont bien connus : réguler les plateformes, taxer les profits, nationaliser les entreprises dominantes, brancher leurs modèles dans un système de planification centralisée. Mais si le socialisme veut être autre chose qu’un capitalisme avec une interface embellie – c’est-à-dire s’il est réellement un projet collectif de reconstruction de la vie matérielle, et pas seulement une redistribution de ses fruits -, il doit répondre à une question plus complexe : peut-il offrir une meilleure façon de vivre que le capitalisme avec cette technologie ? Peut-il proposer un mode de vie distinct, qui vaille la peine d’être désiré, plutôt qu’une simple répartition plus équitable de ce que le capital a déjà créé ?

Une fois la question posée de cette manière, quelque chose de gênant apparaît. Pour une tradition obsédée par l’optimisation des forces productives, le socialisme s’est montré étonnamment prompt à mettre certaines d’entre elles à l’écart sur le plan politique. Le socialisme traite la technologie comme un outil neutre à intégrer à de meilleures institutions – une fois que celles-ci existeront. Prenons les chemins de fer, les centrales nucléaires ou les modèles linguistiques : si le capitalisme en fait mésusage, le socialisme promet d’enfin les réorienter vers le bien commun. La véritable question, cependant, c’est de savoir si même la théorie socialiste récente la plus ambitieuse échappe à cette limite… ou si elle ne fait que reconduire la neutralité, en se contentant d’y ajouter de la sophistication.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

I. 

La proposition d’Aaron Benanav pour une « économie à critères multiples », développée dans deux longs essais publiés dans la New Left Review, propose un cas d’école1. Son diagnostic est que le capitalisme et le socialisme d’État classique sont tous les deux organisés autour d’optimisation de critères uniques : le capitalisme autour du profit et le socialisme d’État autour de la production brute. Cela aura fonctionné, rudement, tant que la croissance du PIB pouvait servir de justification. Dans une ère de stagnation, de dégradation écologique et de crise des services sociaux, ce n’est plus le cas – ou du moins, pas dans le Nord impérial (malheureusement, les spécificités du Sud ne figurent pas vraiment dans l’analyse de Benanav).

Benanav veut une démocratie économique qui prend en compte, dès le départ, des objectifs multiples et incommensurables. La durabilité écologique, la qualité de travail, le temps libre et les services sociaux sont traités comme des biens distincts qui ne peuvent pas être compressés dans un seul indice. L’équilibre entre eux est composé et recomposé à travers des choix politiques explicites, plutôt que découverts par un marché ou un algorithme centralisé.

Pour ce faire, il propose un système bimonétaire. Chaque individu recevrait des crédits non-échangeables pour leur consommation personnelle, ainsi qu’un revenu de base ; les entreprises et les organismes publics échangeraient en « points » qui ne pourraient qu’être utilisés pour l’investissement et la production. L’investissement ne proviendrait plus de profits retenus, mais des « Conseils d’Investissements » démocratiquement gouvernés, qui alloueraient des points aux projets selon plusieurs critères.

Test de composants électriques dans les années 1950 aux États-Unis, alors que le Bureau du recensement passait du traitement mécanique par cartes perforées à l’utilisation d’ordinateurs fonctionnant avec des bandes magnétiques. Wikimedia.

Dans ce modèle, la coordination serait assurée par des conseils régionaux de travailleur·euses, consommateur·ices, de représentant·es communautaires et d’expert·es techniques. Ces conseils seraient aidés par une « Matrice de Données », un système statique de modélisation, gouverné démocratiquement, qui suivrait les flux, cartographierait les limites écologiques et sociales et rendrait visibles les compromis : si nous décarbonons à telle vitesse, construisons tel nombre de maisons, écourtons la semaine de travail de tant d’heures, voici ce qui s’ensuivrait. Les marchés persisteraient, mais perdraient leur logique de profit. Les entreprises ne pourraient ni accumuler de gains, ni décider de la direction de l’économie à long terme ; elles seraient en concurrence sur des critères démocratiquement choisis, non en fonction des rendements versés à des actionnaires privés. Des « Associations Techniques » organiseraient le travail, la formation et l’expertise à travers les secteurs.

Benanav insiste sur le fait que les valeurs ne sont pas fixées. S’appuyant sur le savant et penseur autrichien Otto Neurath, l’américain pragmatiste John Dewey et d’autres, il explique que les priorités évolueraient au travers des désaccords, de l’apprentissage et de l’expérience. En fonction des évènements, les plans devraient être révisés, les critères ajustés et les institutions reconstruites. Le socialisme, dans sa vision, est intrinsèquement expérimental. Il va jusqu’à façonner un « Secteur Libre », financé publiquement, pour que les artistes, les mouvements sociaux et les associations puissent explorer de nouveaux modes de vie et de valeurs, se servant de leurs innovations pour nourrir en retour les critères officiels.

Pour une vision post-capitaliste des institutions, cette proposition est exceptionnellement détaillée. Mais elle repose sur une supposition : que les échecs historiques du socialisme étaient des échecs de procédure – trop peu de démocratie, avec des critères trop simplistes. Et si le problème était plus profond ? Insérez une technologie aussi instable que l’IA dans l’architecture soigneusement dessinée de Benanav et aucune procédure démocratique ne pourrait effacer les failles qui apparaitraient alors.  

Lire aussi | “Chat GPT, c’est juste un outil !” Les impensés de la vision instrumentale de la technique・Olivier Lefebvre (2025)

II. 

La difficulté ne réside pas dans un schéma particulier ; elle est structurelle. La pensée socialiste s’est organisée autour d’une série de dichotomies – les forces productives contre rapports de production, base contre superstructure, moyens contre fins – et dans chaque cas elle aura placé la technologie sur le côté neutre et utilitaire : du côté des tapis roulants, des centrales nucléaires, des modèles de langage. Sous le capitalisme, la mauvaise classe détourne cette machinerie à ses propres fins ; sous le socialisme, cette même machinerie est redirigée à des objectifs meilleurs.

Une riche tradition critique, souvent dans des champs adjacents à celui du socialisme, rejette la thèse de la neutralité. Marcuse a montré que la domination est intrinsèque à la technologie et ne se contenterait pas simplement de la servir2. Harry Braverman (mentionné par Benanav) a montré comment les machineries tayloristes déqualifient les travailleur·euses de par leur conception même3. David Noble est allé plus loin en démontrant que l’automatisation elle-même n’était pas déterminée techniquement : quand une multitude de chemins existaient, le capital choisissait systématiquement ceux qui transféraient le savoir depuis l’atelier vers la direction, même au détriment de l’efficacité4. D’un autre côté, Cornelius Castoriadis expliquait que la technologie capitaliste matérialise un imaginaire capitaliste – expansion illimitée, maîtrise rationnelle, quantification – et ne peut pas simplement être réutilisée (du moins, pas avant qu’un autre imaginaire ne soit en place)5. Quant à Andrew Feenberg, il a synthétisé plusieurs de ces idées en décrivant la technologie comme « ambivalente », suspendue entre des trajectoires que l’intervention démocratique pourrait altérer6.

La pensée socialiste a placé la technologie sur le côté neutre et utilitaire : du côté des tapis roulants, des centrales nucléaires, des modèles de langage.

Mais ces idées finissent toujours comme des théories de restructuration du travail, ou de la procédure démocratique : comment restructurer le travail, comment ouvrir les décisions techniques à la participation. Elles transforment rarement l’imagination macro-institutionnelle qui ancrerait le socialisme comme une alternative systémique à grande échelle au capitalisme, plutôt que comme une simple alternative réformiste et procédurale. Quand les socialistes conçoivent des économies entières, la technologie redevient un matériel dont une autre classe saura mieux se servir. Benanav, en dépit de toute sa sophistication, travaille à l’intérieur de ce modèle : le « Demos » et le Conseil d’Investissement déterminent les critères, les entreprises et l’Association Technique les appliquent ; les technologies sont des instruments.

L’IA ne correspond pas complètement à ce modèle. Cela rend plus difficile le report de « la question concernant la technologie » – pour utiliser la phrase de Heidegger dans un registre qu’il n’aurait pas reconnu – et plus difficile à y échapper. Un GML (Grand Modèle de Langage) formé sur des textes plagiés bon marchés, calibré pour être le plus plausible possible et restreint par accès payant, ne saurait se réduire à de la statistique à grande échelle. C’est l’expression matérielle d’un monde spécifique : délais du capital-risque, marchés publicitaires, extraction de données, arbitrage de propriété intellectuelle. L’interface stylisée comme celle d’une conversation, qui donne l’impression que le modèle est un·e interlocuteur·ice plutôt qu’une bibliothèque, est le produit d’un choix conçu pour encourager certains types d’usage ainsi qu’une sensation de proximité. Les couches de sécurité encodent une conception particulière de ce qu’il est possible de dire, de ce qui est poli ou de ce qui est risqué.

Igor Saikin sur Unsplash.

Un tel système ne se contente pas de répondre aux relations sociales existantes ; il les cristallise et les alimente en retour, les présentant comme allant de soi. Même les définitions dominantes de l’IA – comme des modèles fermés destinés à un usage général et hébergés dans des centres de données éloignés, auxquels on accède via des conversations en temps réel (chat) – condensent une série de choix capitalistes concernant l’échelle, la propriété, l’opacité et la dépendance de l’utilisateur·ice.

Maintenant, imaginons un futur dans lequel un Conseil d’Investissement à critères multiples, sous pression pour éviter les biais cognitifs et la désinformation, impose aux systèmes d’IA d’être équitables selon des métriques décidées, de respecter la vie privée, de minimiser leur consommation énergétique et de favoriser le bien-être. Appelons cette IA « l’IA woke par mandat démocratique » : une infrastructure dont le contenu généré serait correct, diversifié et équilibré. Même ainsi, on a toujours l’impression que sa construction nous dépasse. Les modifications maladroites encodées à la main pour inclure un semblant d’impartialité aux générateurs d’image existants – et ainsi « encoder » la diversité – nous en ont donné un avant-goût7. Elles ont fait l’objet de moqueries, non pas parce que la diversité serait un mauvais objectif, mais parce qu’elles sont apparues comme un paramètre statique à satisfaire plutôt que comme une transformation issue d’un changement de pratique sociale. Une IA à critères multiples gouvernée par des Conseils d’Investissement risquerait de reproduire ce schéma en traitant les valeurs comme des cases à cocher, plutôt que comme des significations élaborées dans le processus compliqué de l’utilisation et du remodelage des outils eux-mêmes.

Lire aussi | Cyber et libertaires : l’alliance des contraires ?・Sébastien Broca (2025)

C’est ici que la séparation nette que fait Benanav entre une économie qui exécute et des sphères qui décident devient coûteuse. Dans son schéma, les valeurs proviennent du dehors de la production – d’une délibération démocratique ou du Secteur Libre – et sont ensuite appliquées à la technologie au travers de Conseils d’Investissement ou d’autres organismes de contrôle. Mais l’IA expose une circularité que les procédures démocratiques, aussi nombreuses qu’elles soient, ne pourront résoudre : les valeurs que l’on utiliserait pour gouverner ces systèmes se forment elles-mêmes à travers nos interactions avec ces systèmes (en évolution perpétuelle). Personne n’a voté pour que la discussion avec des robots fasse partie de la vie de tous les jours. Personne n’a délibéré en amont sur ce que cela voudrait dire pour les droits d’auteur, la pédagogie ou l’intimité quand les machines ont commencé à imiter les êtres humains. Et les jugements à ce sujet se forment en ce moment même : non pas dans des assemblées qui pourraient ensuite appliquer de tels jugements à une technologie en attente, mais à l’intérieur d’« Équipes produit », de « Conditions d’utilisation » et de l’improvisation de millions d’utilisateur·ices.

Les solutions habituelles n’échappent pas à cette boucle. Encore plus de démocratie sur le lieu de travail, d’évaluation participative des technologies, de conseils de gouvernance inclusifs – tout cela suppose que l’on sait déjà ce qui est important pour nous et qu’il ne reste plus qu’à rassembler davantage d’avis pour arbitrer les compromis. Mais dès lors que la technologie en question transforme les capacités, les concepts de soi et les désirs de celleux qui l’utilisent, il n’y a aucun point de vue stable depuis lequel gouverner. On demande : « Selon quels critères devrions-nous façonner cette chose ? », alors même que cette chose est en train de façonner les êtres chargés de répondre à cette question. Ce n’est pas un problème qui pourra être réparé par de meilleures procédures. C’est une condition structurelle dont n’importe quel socialisme sérieux à propos de la technologie devra s’accommoder plutôt que de chercher à la résoudre.

On demande : « Selon quels critères devrions-nous façonner cette chose ? », alors même que cette chose est en train de façonner les êtres chargés de répondre à cette question.

III. 

Pour pluriel qu’il soit, le modèle à critères multiples de Benanav repose au final sur un unique critère supérieur aux autres : les décisions doivent passer par les bonnes procédures démocratiques. Sous-jacente à cela se trouve une image wébérienne familière de la modernité comme un ensemble de sphères différenciées – l’économie ici, la science là, la politique quelque part par là – retouchée avec un peu de Habermas selon qui on peut coordonner ces sphères entre elles au moyen de « l’agir communicationnel » (les échanges non hiérarchiques entre citoyens permettant le dialogue et la délibération rationnels et démocratiques).

Les socialistes ont rarement remis cette image en question. Frederic Jameson, dans son analyse célébrée du postmodernisme, s’en est approché8. Écrivant dans les années 1980, il observait que le capitalisme tardif a déjà dé-différentié les sphères : la haute culture et la basse culture (high culture and low culture) se sont mélangées et la logique de marchandisation sature tout, depuis les expositions jusqu’à la gastronomie moléculaire. Jameson a passé des décennies à cartographier de telles dé-différentiations dans la culture – cinéma, littérature, architecture – mais a étrangement laissé de côté l’économie. Or, si le capitalisme tardif brouille tellement les frontières entre les domaines – d’une manière que Jameson n’a pas complètement désapprouvé – pourquoi la planification socialiste devrait-elle opérer comme si ces frontières existaient encore ?

Photo de la salle d’opérations du projet CyberSyn au Chili – sur ce projet, voir “Les Santiago boys” d’Evgeny Morozov, paru en 2024 aux éditions Divergence.

Pour Jameson, le jeu, l’impureté et le pastiche étaient partout – sauf dans la manière dont les socialistes devraient réfléchir aux aspects non-triviaux de la vie (y compris la technologie) situés au-delà de la haute et la basse culture. Dans un essai de 19909, Jameson est allé jusqu’à louer « l’approche admirablement totalisante » de l’économiste de Chicago Gary Becker (qui considérait tout comportement humain comme une activité économique)10, et a confessé partager « virtuellement tout » avec les néolibéraux – « sauf l’essentiel ». Ce que Jameson partageait avec les néolibéraux, expliquait-il, était la conviction que la politique consiste avant tout à « nourrir et s’occuper de la machine économique (economic apparatus) » ; ils ne divergeaient que sur la manière de nourrir la machine économique. Pour Jameson, cela faisait de ces deux camps – socialistes et néolibéraux – des alliés contre la vacuité de la philosophie politique libérale.

Mais cette symétrie est une projection de Jameson. Il imagine les néolibéraux comme des administrateurs beckeriens et le marché comme un mécanisme de contrôle, « un policier chargé d’empêcher Staline d’entrer ». Ce que ni lui ni aucun de ses collègues marxistes n’envisagent, c’est une politique orientée vers la découverte d’une multiplicité de connaissances que les technologies, les pratiques et les formes sociales pourraient atteindre lorsqu’elles germent, s’hybrident et mutent – non seulement dans les romans de Balzac ou les bâtiments de Koolhaas (terrain que la tradition Jamesonienne aura miné jusqu’à épuisement), mais dans le cours même de la production. Sur ce point, comme on le verra, les véritables néolibéraux – ceux de Silicon Valley, et non de Chicago – sont moins wébériens que leurs critiques marxistes. Ils ne sont pas administrateurs, mais fabricants de mondes ; ils se nourrissent de la contamination croisée des domaines et monétisent cette impureté que Jameson ne peut que diagnostiquer.

Les véritables néolibéraux sont moins wébériens que leurs critiques marxistes. Ils ne sont pas administrateurs, mais fabricants de mondes.

Et si l’introspection socialiste commençait ailleurs ? Non pas en restaurant les sphères différentiées comme Benanav, ni en réduisant tout à l’intérieur du domaine économie comme Jameson, mais en abandonnant l’idée que les politiques, l’expertise, la créativité et la technologie aient jamais été séparées dans des boites distinctes ?

Avec l’IA, de telles séparations sont particulièrement difficiles à défendre. Cette technologie est simultanément un outil, un médium, une forme culturelle, un instrument épistémique, un lieu de formation de valeur – de la même manière que ce qu’avait décrit autrefois Raymond Williams à propos de la télévision, mais avec bien moins de stabilité11. On ne peut pas la ranger dans une sphère unique et la gérer depuis l’extérieur.

Alors, la question se déplace. Au lieu de demander « Comment mieux coordonner cet ensemble technologique sous une multitude de critères démocratiques ? », on pourrait demander : « Quels types d’institutions rendent possible l’exploration systématique de différents ensembles technologiques, de différentes manières de vivre avec eux ? » Le problème est moins celui de la coordination optimale que de l’expérimentation organisée.

Cela implique des écologies d’expérimentation, et non pas une unique Matrice de Données nourrissant un unique ensemble de Conseils d’Investissements. Imaginons, aux côtés des géants industriels, une couche dense de projets d’IA municipaux, coopératifs et ancrés dans les mouvements sociaux, chacun avec ses priorités propres. Le gouvernement d’une ville maintiendrait peut-être un modèle ouvert, entraîné sur des documents publics et sur le savoir local, intégré aux écoles, aux cliniques et aux services de logements selon des règles établies par les habitant·es. Un réseau d’artistes et d’archivistes pourrait construire un modèle spécialisé dans les langues en voie de disparition et les cultures régionales, adapté au contenu ayant de l’importance pour les communautés.

Computer History Museum, Wikimedia.

Le propos n’est pas que ces exemples sont LA réponse, mais qu’un socialisme à la hauteur de l’IA institutionnaliserait la capacité d’essayer de tels agencements, de les investir, de les modifier ou de les abandonner – et ce à grande échelle et avec de véritables ressources. Un tel socialisme traiterait l’IA comme étant suffisamment plastique pour s’accommoder aux usages, aux valeurs et aux formes sociales qui émergent uniquement à mesure qu’elle est déployée. Il verrait l’IA moins comme un objet à gouverner (ou pour gouverner) que comme un champ de découverte collectif et d’auto-transformation.

Envisagée ainsi, la technologie n’est pas une surface sur laquelle projeter des valeurs préexistantes ; c’est l’un des principaux lieux où les valeurs sont formées. Les personnes qui travaillent avec des outils spécifiques développent de nouvelles compétences et sensibilités, apprenant que certains usages relèvent du soin et d’autres de la surveillance, que certaines interfaces appellent la pédagogie et d’autres encouragent la tricherie – tout en réexaminant ce que le soin, la surveillance, la pédagogie et la tricherie signifient réellement. Ces jugements ne peuvent pas être produits par délibération abstraite en amont ; ils émergent dans la pratique.

Lire aussi | Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche・Guillaume Carnino (2026)

L’architecture de Benanav reconnaît ceci en soulignant le fait que les valeurs évoluent et en finançant un Secteur Libre de « créateur·ices de valeurs ». Mais sur le plan structurel, elle continue d’assumer une verticalité à sens unique : le Demos et le Secteur Libre génèrent des priorités, que le Conseil d’Investissement et les institutions économiques mettent en place ensuite. Ce qui manque est une analyse de la manière dont les valeurs émergent depuis la production et se forment elles-mêmes – et de la manière dont, autour d’une technologie comme l’IA, la distinction entre « économie fonctionnelle » et « libre créativité » devient poreuse au point de se dissoudre.

Gillian Rose, dont les premiers travaux ont révélé la manière dont la pensée post-kantienne avait brisé la « vie éthique » hégélienne en dualisme inertes – les valeurs versus les faits, les normes versus les institutions – a par la suite appelé ce terrain « le milieu brisé »12. Elle entend par là la zone où les moyens et les fins, la moralité et la légalité, sont élaborés dans des contextes particuliers plutôt qu’appliqués depuis l’extérieur13. Ce que Rose a appelé « le milieu sacré » était en fait le fantasme d’échapper à cette cassure dans une harmonie purifiée, qu’elle soit procédurale ou rédemptrice. Autour de l’IA, cette zone est politiquement décisive. Traiter la technologie comme une sphère purement instrumentale que la politique gouverne depuis l’extérieur n’est pas seulement naïf : cela nous empêche de voir où le pouvoir se situe désormais.

IV. 

À ce stade, une inquiétude légitime apparaît : est-ce toute autre alternative ne mènerait pas simplement au chaos ? Le socialisme n’est-il pas censé nous libérer du tourbillon de l’innovation capitaliste, avec ses gadgets et son obsolescence programmée ?

La réponse dépend du type d’impureté que l’on est prêt·e à assumer. Il y a la violence technocratique dans la modernisation descendante qui détruit les modes de vies existants au bulldozer, puis nomme les décombres « progrès ». Et il y a ce que le philosophe équatorien-mexicain Bolívar Echeverría appelle un éthos « baroque » : accepter que la modernité est durablement installée mais refuser de la vivre dans la forme pure et ascétique que le capital préfère – notamment en tordant les normes, en obéissant sans se conformer tout à fait, en avalant le code pour en recracher autre chose.   

Le socialisme n’est-il pas censé nous libérer du tourbillon de l’innovation capitaliste, avec ses gadgets et son obsolescence programmée ?

Bien sûr, le capitalisme a son propre baroque. L’entrepreneur de la Silicon Valley – contrairement à l’administrateur beckerien imaginé par Jameson – crée de nouvelles valeurs en construisant de nouveaux mondes et en accélérant la contamination croisée de la technologie, de la culture et du désir. Mais il s’agit d’un baroque mis au service de l’accumulation, d’une impureté canalisée sur une trajectoire unique.

L’argument d’Echeverría va plus loin. Au cœur de son raisonnement, on trouve une relecture de l’une des valeurs centrales du marxisme : la valeur d’usage. Chaque technologie, souligne-t-il, détient une infinité de mises en œuvre possibles – la pluralité des trajectoires qu’elle pourrait prendre, la variété des formes de vie qu’elle pourrait rendre possible. Le capitalisme n’élimine pas cette pluralité ; il la re-fonctionnalise, orientant son développement pour le limiter à l’unique voie de la valorisation. Les possibilités éliminées ne disparaissent pas ; elles subsistent comme des potentialités en attente, disponibles pour être redécouvertes sous d’autres conditions sociales.

Image générée par ordinateur de la salle d’opérations du projet CyberSyn au Chili – sur ce projet, voir “Les Santiago boys”, Evgeny Morozov, paru en 2024 aux éditions Divergence.

Appliqués à l’IA, cela veut dire que la tâche n’est pas simplement de réguler et de redistribuer les technologies en considérant leur forme de base comme une évidence, mais d’explorer les voies que le développement capitaliste a fermées. Que deviendraient les modèles de langages s’ils n’étaient pas construits sur l’impératif de la monétisation et sur la gestion du risque corporatif ? Quelles formes de créativité, de mémoire ou de collaboration pourraient-ils permettre si les données d’entraînement étaient construites par des communautés plutôt que par une extraction de données à grande échelle, et si l’interface invitait à l’enquête plutôt qu’à l’attachement ? On ne peut pas le savoir à l’avance. La stratégie baroque consiste à traiter chaque rencontre avec ces systèmes comme un test qui vise à savoir si d’autres mises en œuvre restent possibles. À essayer, échouer, et essayer encore.

Le schéma de Benanav tire dans la direction opposée. En suivant Robert Brenner14, il traite le dynamisme capitaliste comme réel – des entreprises qui innovent à travers la compétition, le marché comme un véritable processus de découverte. Mais cela revient à mésinterpréter les sources du pouvoir du capitalisme. Prenons Google : son ascension est indissociable du contrôle américain sur les infrastructures de la communication, du projet politique de la libéralisation d’Internet et d’un ordre sécuritaire qui fait transiter le trafic mondial par les systèmes des États-Unis. L’innovation capitaliste est étroitement liée au pouvoir de l’État, des hiérarchies impériales et de l’ingénierie juridique. Confondre ceci avec une découverte spontanée du marché risque de conserver dans le socialisme ce qui n’a jamais été le véritable moteur du changement technique du capitalisme.

Benanav espère que la composition multicritère – la remise en question de l’efficacité, de l’écologie, des services sociaux, du temps libre – produirait le genre de réactivité dynamique qui manquait aux formes plus anciennes du socialisme. Mais une telle réactivité court le risque d’être administrative plutôt que créative : elle dirige (démocratiquement) plutôt qu’elle n’invente. C’est là que surgit un problème plus profond. Benanav propose le socialisme comme une réponse à une question que le capitalisme n’a jamais posée : comment devrions-nous équilibrer démocratiquement des valeurs concurrentes ? Mais il ne répond jamais à la question que le capitalisme pose réellement : d’où vient la créativité, en dehors des salles d’assemblée et des salles de concert ? Quel est le moteur de la contamination croisée des domaines, de l’invention de nouveaux désirs et de nouvelles capacités, ainsi que de la fusion de l’imagination et de la matière ? Quiconque a écouté Steve Jobs, Peter Thiel ou Elon Musk sait que le néolibéralisme n’est pas l’administrateur beckerien du schéma du marché imaginé par Jameson. C’est un projet de fabrication de mondes. Et sa proposition est claire : le marché est le véhicule depuis lequel les capacités humaines s’élargissent, à mesure que les consommateur·ices découvrent de nouveaux goûts et que les entrepreneurs construisent de nouveaux mondes.

Si le socialisme veut répondre au capitalisme sur son propre terrain, il lui faut un vecteur de fabrication de mondes à même de rivaliser – et pas simplement l’administration démocratisée d’une économie dont la créativité a lieu ailleurs. C’est ici que l’IA devient décisive. Le pari d’une société de l’IA socialiste serait que les fonctions génératives que les néolibéraux assignent au marché – l’expérimentation, la découverte, le pouvoir de faire des mondes à partir d’idées – puissent désormais passer à travers un médium différent. Appelons ça le baroque socialiste : des systèmes d’IA gouvernés collectivement, intégrés aux lieux de travail, aux écoles, aux cliniques ou aux coopératives, qui permettent la même fabrication de mondes revendiquée par les entrepreneurs au nom du capital, mais sans l’impératif de l’accumulation qui déforme et referme les chemins non empruntés.   

Quiconque a écouté Steve Jobs, Peter Thiel ou Elon Musk sait que le néolibéralisme est un projet de fabrication de mondes.

L’impératif déterminant ne serait plus la « croissance » mesurée par les volumes toujours croissants de marchandises, mais l’élargissement de ce que les personnes auraient la capacité de faire et d’être, individuellement et collectivement.

Dans cette perspective, l’IA serait évaluée selon sa capacité à ouvrir de nouveaux espaces de compétences, de compréhension et de coopération – et selon à qui elle les adresse. Un outil qui permettrait aux professeurs et étudiant·es de travailler dans leurs propres dialectes, d’interroger l’histoire depuis leurs propres points de vue, et de partager et d’affiner les savoirs locaux, aurait un score élevé. En revanche, un outil qui réduirait les individus à des consommateur·ices passif·ves de bouillie auto-générée, ou qui concentrerait le pouvoir interprétatif dans une poignée de gourous de l’apprentissage automatique aurait un score bas – quelle que soit son efficacité.

La possibilité d’un socialisme avec un tel agrandissement des capacités — orienté vers la croissance des forces créatives, et pas uniquement vers celle des forces productives — reste une question ouverte. Ce qui importe ici, c’est que les schémas comme celui de Benanav nous permettent à peine de la poser. Ces schémas disposent de règles détaillées pour équilibrer des critères une fois ceux-ci définis, mais en disent très peu sur l’origine de ces critères, sur la manière dont ils évoluent ou dont la technologie elle-même participe à leur émergence. Même lorsqu’ils prennent en compte le fait que les besoins sont historiquement forgés, ils oublient que les capacités le sont également.

Photo de Michael Dziedzic sur Unsplash.

V. 

L’IA importe moins parce qu’elle serait la technologie la plus importante ou la route assurée vers l’émancipation ou vers le désastre, que parce qu’elle expose des failles dans la pensée socialiste – failles qui étaient plus faciles à ignorer lorsque le paradigme était la machine à vapeur ou la chaîne de montage. Ces machines plus anciennes pouvaient au moins être décrites, bien qu’incorrectement, comme des outils relativement stables dont les usages étaient largement fixés au moment de leur conception. Avec l’IA, c’est l’outil lui-même qui ne cesse de changer – et cela sous nos yeux. Ses usages sont découverts dans la pratique. Ses frontières se brouillent avec la culture, les médias, la cognition, l’affect. Dans ces conditions, un socialisme qui traite la technologie comme un scénario achevé et considère la politique comme un art de la diriger aura toujours un train de retard.

Un socialisme à la hauteur de l’IA ne pourra pas se cantonner à une division du travail dans laquelle la politique décide et la technologie accomplit. Il doit reconnaître la technologie comme un lieu fondamental d’autoformation collective. Le but n’est pas d’abandonner l’élaboration démocratique de critères, ni de romantiser le chaos. Le but est de construire des institutions qui envisagent l’existence collective comme un champ de lutte et d’expérimentation – un champ où de nouvelles valeurs, de nouvelles capacités, et de nouveaux modes de vie sont en constante élaboration.  

Un socialisme qui traite la technologie comme un scénario achevé et considère la politique comme un art de la diriger aura toujours un train de retard.

Cela implique d’accepter l’impureté, non seulement comme un principe de conception mais comme une condition existentielle. Au lieu d’imaginer une économie soigneusement fonctionnelle supplantée par un Secteur Libre cordonné, nous avons besoin d’une organisation poreuse dans laquelle les expérimentations circulent entre les sphères, quitte à se heurter aux métriques officielles ou à les repenser. Les institutions ne feraient pas qu’équilibrer les critères ; elles laisseraient de la place aux projets indisciplinés qui ne rentreraient pas dans les métriques officielles – et n’y correspondraient sans doute jamais.  

Ainsi, la question qui reste en suspens n’est pas de savoir si le socialisme peut socialiser l’IA tout en laissant intacte sa machinerie. Elle est de savoir si le socialisme peut devenir un projet de fabrication de mondes – qui ne se préoccupe pas seulement de savoir qui sont les propriétaires des machines, mais de ce que les machines permettent aux individus de faire et de devenir. Un socialisme qui se contente de redistribuer les fruits des technologies capitalistes courra toujours après un monde fabriqué ailleurs. Un socialisme qui prend au sérieux le pouvoir étrangement créateur mais instable de l’IA pourrait peut-être contribuer à créer un monde différent – et un peuple différent – dès le départ.

Lire aussi | Comment le numérique est devenu l’utopie du capital・Sébastien Broca (2026)

Image principale : Photo de Viktor Forgacs sur Unsplash.

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. https://newleftreview.org/issues/ii153/articles/aaron-benanav-beyond-capitalism-1.pdf ; https://newleftreview.org/issues/ii154/articles/aaron-benanav-beyond-capitalism-2
  2. https://www.pdcnet.org/pdc/bvdb.nsf/purchase26?openform&fp=zfs&id=zfs_1941_0009_0003_0414_0439
  3. https://monthlyreview.org/9780853459408/
  4. https://www.routledge.com/Forces-of-Production-A-Social-History-of-Industrial-Automation/Noble/p/book/9781412818285
  5. https://archive.org/details/crossroadsinlaby0000cast
  6. https://www.routledge.com/Questioning-Technology/Feenberg/p/book/9780415197557
  7. https://www.aljazeera.com/news/2024/3/9/why-google-gemini-wont-show-you-white-people
  8. https://newleftreview.org/issues/i176/articles/fredric-jameson-marxism-and-postmodernism
  9. https://socialistregister.com/index.php/srv/article/view/5576
  10. https://www.britannica.com/money/Gary-Becker
  11. https://www.routledge.com/Television-Technology-and-Cultural-Form/Williams/p/book/9780415314565
  12. https://www.wiley.com/en-us/The+Broken+Middle%3A+Out+of+Our+Ancient+Society-p-9780631182214
  13. https://www.versobooks.com/products/2085-hegel-contra-sociology?srsltid=AfmBOorcVsT0IEsPUwbQ6NRaY-J5XfV4J4e0YwZz_81pr83xN8mX8SgR
  14. https://newleftreview.org/issues/i104/articles/robert-brenner-the-origins-of-capitalist-development-a-critique-of-neo-smithian-marxism

L’article Le socialisme après l’IA est apparu en premier sur Terrestres.

PDF

10.03.2026 à 12:05

Comment le numérique est devenu l’utopie du capital

Sébastien Broca

Il y a 30 ans, les promoteurs du numérique annonçaient un monde plus juste, libre et écologique, la fin du travail et l'érosion du capitalisme. Pourquoi ce même numérique façonne un monde chaque jour plus dystopique ? Dans son livre “Pris dans la toile”, Sébastien Broca revient sur les promesses et les illusions portées par l'utopie d'Internet. Extrait.

L’article Comment le numérique est devenu l’utopie du capital est apparu en premier sur Terrestres.

Texte intégral (7043 mots)
Temps de lecture : 15 minutes

Extrait du livre de Sébastien Broca, Pris dans la toile. De l’utopie d’Internet au capitalisme numérique, Éditions du Seuil, 2025, p. 199-209.


Le développement des Big Tech s’est accompagné de discours ayant une dimension utopique. Les technologies numériques ont été présentées comme la promesse d’un avenir transcendant les limites matérielles à l’abondance et abolissant la nécessité du travail. Ces projections ont eu une fonction d’occultation du présent. Elles ont dissimulé le fait que la prospérité des grandes entreprises technologiques reposait sur l’appropriation et l’exploitation de nombreuses ressources productives : matières premières, énergie, travailleurs et travailleuses. La critique n’a pas toujours su mettre à distance ces utopies du capital, parfois guère éloignées des utopies sociales qu’elle a défendues.

L’esprit du capitalisme numérique

Le pouvoir des Big Tech s’inscrit dans une dynamique historique longue. Ces entreprises prolongent, matériellement et symboliquement, une trajectoire empruntée dès les prémices du monde industriel. Elles entretiennent l’esprit du capitalisme, analysé par Max Weber dès le début du XXe siècle. Ce dernier décrivait alors le dépérissement de l’esprit « traditionaliste » : celui de l’homme qui ne cherche pas « à gagner de l’argent et toujours davantage d’argent, mais simplement à vivre, à vivre comme il a l’habitude de vivre et à gagner ce qui est nécessaire pour cela »1. Le capitalisme a ainsi marginalisé un certain nombre de valeurs, comme le respect de la coutume et la solidarité communautaire. Il a forgé des individus mus par un désir d’enrichissement et privilégiant un rapport instrumental à la nature. Il s’est appuyé sur le développement des technologies et, après la Seconde guerre mondiale, a érigé la croissance en objectif cardinal des politiques publiques.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Le capitalisme numérique perpétue cette promesse d’expansion, dont les Big Tech se veulent aujourd’hui les porteurs privilégiés. Ces entreprises ont réaffirmé l’idéologie progressiste propre à la modernité capitaliste, exacerbant le projet d’asseoir l’accumulation illimitée sur le développement de la science et de la technique. Elles ont propagé un « système de valeurs dans lequel la valeur ou le mérite découlent de la résolution de problèmes sociaux grâce à des moyens technologiques et à l’esprit d’entreprise »2. Le PDG d’OpenAI, S. Altman, a synthétisé cet esprit dans un texte publié en 2021 : « La loi de Moore pour tout ». Il y soutient que « le progrès technologique suit une courbe exponentielle » et que le développement fulgurant de l’IA engendrera une croissance soutenue et « un avenir radieux »3. Il promet « une société bien plus juste, heureuse et prospère »4 grâce à une source « “illimitée” d’intelligence et d’énergie »5. Dans une veine similaire, J. Bezos craint avant tout la stagnation : « si nous restons sur cette planète […], nous devrons arrêter de croître, ce qui est un très mauvais avenir »6 déclare-t-il pour justifier la création de « colonies » dans l’espace.

« Si nous restons sur cette planète, nous devrons arrêter de croître, ce qui est un très mauvais avenir ».

Jeff Bezos

Comme le suggèrent ces citations, le rapport au temps et à l’espace des grands dirigeants de la Silicon Valley a une dimension utopique, au sens d’une projection par-delà l’ici et le maintenant. Dans son versant le plus radical, cette projection prend la forme d’un avenir post-humain, par-delà les limites biologiques et terrestres. Même lorsqu’elle ne va pas si loin, l’utopie techno-entrepreneuriale des Big Tech est la promesse d’un avenir où le progrès technique aura résolu les problèmes du présent. Il importe peu que de telles projections puissent être mises en doute, parfois même moquées par les spécialistes des domaines concernées. L’esprit du capitalisme se préoccupe assez peu des faits. Sa fonction est de renforcer « la confiance que [les] membres [des classes dominantes] peuvent avoir dans la validité de leurs privilèges »7. Elle est aussi de dissimuler certaines réalités embarrassantes. L’utopie d’un avenir radieux a ainsi pour corollaire une présentation mystifiée du présent, dont je voudrais retracer brièvement la construction.

Le mythe de l’immatériel

Dans les années 1940, le principal théoricien de la cybernétique, Norbert Wiener, soutenait que le monde peut être compris exclusivement en termes d’échanges d’information. L’information était selon lui de l’entropie négative, une mesure d’organisation. Il estimait qu’en vertu du second principe de la thermodynamique, l’univers évolue d’un état d’organisation vers un état de chaos uniforme. Il voyait l’information comme ce qui résiste à cette tendance, détermine les propriétés des êtres et permet l’émergence de poches d’organisation : les systèmes biologiques, sociaux et techniques. La cybernétique a ainsi popularisé l’idée que l’information serait séparable de la matière et plus fondamentale que celle-ci8.

Cette vision acquiert à partir des années 1970 une dimension socio-historique, en vertu de la tendance, paresseuse mais récurrente, à définir une époque par une matière, une technologie ou une source d’énergie. Quelques intellectuels influents soutiennent ainsi qu’après les âges du chemin de fer, du charbon et du pétrole s’ouvrirait un « âge de l’information », actant la fin de la civilisation industrielle. La notion de « société post-industrielle » apparaît sous la plume d’Alain Touraine en France, de Daniel Bell, Herman Kahn et Anthony Wiener aux États-Unis. Le syntagme voisin de « société de l’information » est adopté par plusieurs institutions internationales, l’OCDE (Organisation de coopération et de développement économiques) en 1975 et l’Union européenne en 19799. En 1980, le futurologue Alvin Toffler annonce dans un ouvrage à succès l’imminence d’une « troisième vague » : celle de l’information10.

Les années 1970 sont aussi celles où émerge, en Californie, l’idée d’une complémentarité entre l’informatique et la préservation de l’environnement. Dans le contexte de la guerre froide, les macro-technologies contrôlées par les États, comme la bombe nucléaire, représentent une menace de destruction pour la planète entière. Selon les hippies à l’origine du Whole Earth Catalog – une publication qui connaît à l’époque un grand succès en présentant toutes sortes de produits (outils de jardinage, fourneaux à bois, semences, calculatrices, synthétiseurs) utiles pour vivre en communauté – il ne faut pourtant pas renoncer aux technologies. Inspirés par la cybernétique de N. Wiener et les approches systémiques de l’écologie, ces « néo-communalistes »11 réunis autour de Stewart Brand établissent « un lien positif entre la technologie et la nature, en soulignant le potentiel écologique et même le caractère “naturel” des solutions technologiques »12. Ils développent un environnementalisme pragmatique et moderniste, qui associe mode de vie communautaire et objets high-tech. Dans ce cadre, l’ordinateur apparaît comme un instrument de libération individuelle et comme un outil écologique, qui aide à contrôler les écosystèmes pour assurer leur stabilité grâce à des échanges adéquats d’information.

Lire aussi | Rapiécer le monde. Les éditions La Lenteur contre le déferlement numérique・François Jarrige (2019)

Vingt ans plus tard, la diffusion d’Internet donne un nouvel élan à ces proclamations enthousiastes. Dans les colonnes de Wired s’expriment les digerati, une élite d’entrepreneurs, éditorialistes et prospectivistes fascinés par le nouveau monde numérique. Ils soutiennent qu’Internet est une « révolution » comparable à celle de l’imprimerie. L’informatique et les réseaux sont présentés comme le triomphe des bits sur les atomes, le remplacement de la matière par quelque chose qui « n’a ni couleur, ni taille, ni poids, et peut voyager à la vitesse de la lumière »13. L’information apparaît comme un moyen de dépasser la rareté. Elle constitue une ressource non-rivale : sa consommation par une personne ne la dégrade pas et ne la rend pas indisponible pour d’autres14. L’humanité serait ainsi sur le point de s’affranchir des limites physiques à son développement, grâce aux propriétés prodigieuses de l’information.


Butte, Montana, USA. Crédits : Steve & Barb Sande.

Ces discours prêtent à conséquence, puisqu’ils recouvrent d’un voile idéologique la matérialité du numérique. Tandis que les digerati exaltent le remplacement des atomes par les bits, l’essor d’Internet suscite des investissements massifs dans les infrastructures matérielles : câbles sous-marins, fibre optique, data centers. Le discours de « l’abondance informationnelle » abstrait alors les technologies numériques des réseaux énergétiques et logistiques nécessaires à leur fonctionnement. Les Big Tech n’ont ensuite qu’à reprendre cet habillage discursif pour minimiser la dimension matérielle de leurs activités. Le terme éthéré de « cloud » désigne les services fournis par de grands bâtiments énergivores. La présentation des données comme un « nouveau pétrole » suggère le remplacement des industries fossiles par un nouveau capitalisme écologiquement vertueux.

Les pouvoirs publics participent à la diffusion de ces représentations mystificatrices. Aux États-Unis et dans l’Union européenne, le récit de la double transition (écologique et numérique) s’impose à partir des années 1990. Dès cette date, les responsables politiques sont majoritairement convaincus que « nous pouvons compter sur la révolution Internet pour nous aider à protéger et préserver notre environnement »15.

A partir des années 1990, les responsables politiques sont majoritairement convaincus que « nous pouvons compter sur la révolution Internet pour nous aider à protéger et préserver notre environnement ».

Al Gore, soutien historique de l’industrie informatique, joue un rôle important pour ancrer cette vision dans la Silicon Valley et au-delà. Membre des élus démocrates surnommés « Atari Democrats » dans les années 1980, apôtre des « autoroutes de l’information » en tant que vice-président de Bill Clinton, il devient après sa défaite controversée à l’élection présidentielle de 2000 conseiller spécial de Google et membre du conseil d’administration d’Apple16. Il se mue aussi en défenseur de la cause climatique, avec la sortie en 2006 du documentaire Une vérité qui dérange, dont il est le principal protagoniste. Tout en sensibilisant un large public aux dangers du réchauffement, le film diffuse la conviction que l’innovation peut résoudre le défi climatique. Il suffirait pour cela de remplacer l’ancien capitalisme fossile par un capitalisme vert, dont la Silicon Valley détiendrait les clés technologiques17. Héritier de l’écomodernisme du Whole Earth Catalog, A. Gore légitime ainsi une vision entrepreneuriale de la « transition écologique ». Le numérique y est l’essentiel de la solution, jamais un aspect du problème.

Le mythe de la fin du travail

L’occultation du travail humain nécessaire à l’économie numérique se construit de manière parallèle au déni de sa matérialité. La « fin du travail » fait l’objet de nombreux débats au milieu des années 1990, suite au retentissement des thèses défendus par le prospectiviste Jeremy Rifkin18. Quinze ans plus tard, l’essor du numérique s’invite dans la discussion. Deux économistes d’Oxford font sensation, en affirmant que 47 % des emplois aux États-Unis sont susceptibles d’être automatisés dans les dix années à venir19. Leurs craintes trouvent un écho au sein des institutions internationales, qui publient par la suite de nombreux rapports sur le « Future of Work ». Ces écrits soulignent l’imminence d’une puissante vague d’automatisation liée à l’essor de l’IA.

L’occultation du travail humain nécessaire à l’économie numérique se construit de manière parallèle au déni de sa matérialité.

Les Big Tech diffusent elles aussi cette conviction. La focalisation médiatique sur quelques entrepreneurs stars (Steve Jobs, M. Zuckerberg, E. Musk) suggère que la réussite en affaires tient exclusivement au talent individuel et à l’innovation technologique. L’aptitude des grandes entreprises technologiques à organiser, pour en tirer profit, de multiples activités humaines dispersées aux quatre coins du monde passe ainsi au second plan. Les progrès de l’IA laissent aussi penser que de nombreux processus productifs sont déjà entièrement automatisés. Pendant longtemps, le grand public croit par exemple que les IA de Google et de Facebook filtrent automatiquement tous les contenus indésirables publiés sur les réseaux sociaux, alors qu’il n’en est rien20. Ce mythe de la fin du travail profite à la Silicon Valley. Il promet aux investisseurs la suppression des coûts engendrés par le travail salarié. Il soustrait également au regard du public des travailleurs précaires, dont l’exploitation cadre mal avec l’image que la Tech souhaite renvoyer.

Les mythes de l’immatériel et de la fin du travail maintiennent ainsi invisibles, et donc incontestables, les raisons de la prospérité des Big Tech. Ils participent pour cette raison de ce qu’on peut nommer – en détournant une expression de Marx – un fétichisme des technologies21, soit une idéologie qui abstrait celles-ci de leurs conditions de production. Les bénéfices qu’apportent les services numériques (gains de temps, d’efficacité) sont détachés de ce qui les rend possibles et de leurs contreparties, sociales et environnementales. Les technologies sont nimbées d’une aura quasi magique. Elles sont présentées comme apportant des bénéfices nets, alors qu’elles opèrent la plupart du temps un transfert de temps et de ressources. Les entreprises préfèrent en effet insister sur les économies d’énergies permises par l’utilisation de systèmes « intelligents », plutôt que sur l’énergie consommée pour produire les systèmes en question. Elles préfèrent présenter l’automatisation comme un moyen d’économiser du temps de travail humain, plutôt que de reconnaître l’importance du travail déployé « en amont » afin de permettre l’automatisation « en aval ».

Telle est la fonction des mythes : présenter les bénéfices associés aux technologies comme des qualités que celles-ci auraient « par nature », non comme le résultat de nouvelles formes d’exploitation de la nature et des travailleurs ; ne retenir que les gains, en somme, pour éviter d’interroger la balance entre les gains et les pertes.

La critique mystifiée ?

Les mythes de l’immatériel et de la fin du travail ont exercé une séduction durable sur certains acteurs de la critique. La vision d’un « âge de l’information » mettant fin à la civilisation industrielle a eu un écho bien au-delà des institutions internationales et des idéologues de la Silicon Valley. Dans le monde académique, elle a été légitimée par l’influente trilogie du sociologue Manuel Castells22. De nombreuses formes de militantisme se sont par ailleurs appuyées sur l’idée que le numérique ouvrirait une nouvelle ère d’abondance.

Lire aussi | Cyber et libertaire : l’alliance des contraires ?・Sébastien Broca (2025)

Dès le milieu des années 1980, R. Stallman distingue matière et information, afin de remettre en cause la légitimité des logiciels propriétaires. Il recourt à l’exemple imagé du « sandwich infini » pour expliquer ce qu’est un logiciel : il peut être consommé une infinité de fois par une infinité de personnes en une multitude d’endroits23. L’insistance sur l’abondance de l’information lui permet alors de dénoncer la création « artificielle » de rareté par la propriété intellectuelle, en la décrivant comme une absurdité contraire aux propriétés de l’information.

Quinze ans plus tard, les défenseurs des communs numériques, aux États-Unis comme en France, reprennent l’argument. Ils affirment que « le système de régulation que nous mettons en place pour les ressources rivales (terres, voitures, ordinateurs) n’est pas nécessairement approprié pour les ressources non-rivales (idées, musique, expression) »24. L’argument fait mouche. Le philosophe A. Gorz soutient lui aussi que « la connaissance, l’information sont par essence des biens communs, qui appartiennent à tout le monde »25. Les penseurs post-opéraïstes exaltent également les potentialités du « travail immatériel » et les promesses d’une « économie d’abondance »26. De nombreux critiques de l’économie industrielle de l’information participent ainsi à l’exaltation de l’information et de l’immatériel. Les mêmes motifs discursifs circulent dans différents espaces sociaux : la notion de bien non-rival, issue de l’économie mainstream, est reprise par les défenseurs des communs ; la culture hacker inspire les éditorialistes de Wired comme les théoriciens néo-marxistes.

Mettre en avant un exceptionnalisme informationnel a au début des années 2000 un intérêt stratégique. Dans le contexte des luttes contre les nouvelles enclosures, cela fait apparaître l’extension de la propriété intellectuelle comme absurde, artificielle et contraire à la nature des choses. Souscrire au mythe de l’immatériel, c’est donc faire avancer la cause des communs numériques. Cela occulte en revanche que les régimes juridiques appliqués aux biens, quels qu’ils soient, ne sont pas le reflet de leurs propriétés, mais le résultat de normes sociales, de jeux institutionnels et de rapports de force. Cela reconduit aussi le déni de la matérialité du numérique, véhiculé par la pensée dominante depuis les années 1970.

En souhaitant préserver le potentiel émancipateur du numérique, les défenseurs des libertés ont aussi conservé l’idéal de son développement illimité.

Cet oubli a été partagé par la plupart des défenseurs des libertés en ligne. Ceux-ci ont souvent prolongé l’exaltation de l’ « immatériel », qui imprégnait la Déclaration d’indépendance du cyberespace écrite par J. P. Barlow. Construite autour de l’idée de « défendre Internet » (cf. chapitre 1), cette tradition militante est demeurée majoritairement hostile au fait de prioriser certains usages ou de poser des limites au déploiement des technologies. En souhaitant préserver le potentiel émancipateur du numérique, elle a aussi conservé l’idéal de son développement illimité. En insistant sur la circulation de tous les discours et les savoirs sur Internet, elle a négligé le coût matériel et énergétique de cette abondance informationnelle.

Crédits : Jonathan Kemper.

Les défenseurs des libertés numériques n’ont pas accordé beaucoup plus d’attention à la question du travail. Jusqu’aux années 2010, ils ont souvent abordé Internet comme un espace de communication, en négligeant les rapports de production qui en déterminent le fonctionnement. Leurs luttes privilégiées (liberté d’expression, vie privée, circulation de l’information) ont été menées sous un angle technologique ou juridique, en accordant par exemple plus d’importance aux politiques de modération mises en place par les plateformes qu’aux conditions de travail des modérateurs de contenus chargés de les appliquer.

Lire aussi | « ChatGPT, c’est juste un outil ! » : les impensés de la vision instrumentale de la technique・Olivier Lefebvre (2025)

Utopies sociales, utopies du capital

Pourquoi de nombreux acteurs de la critique des Big Tech ont-ils succombé à des mythes, qui semblent renforcer le pouvoir des entreprises qu’ils ont combattues ? Les explications sont multiples. On rappellera tout d’abord que les influences ont été réciproques : si la critique s’est parfois laissé abuser par la communication des entreprises, celles-ci ont aussi puisé dans des mouvements sociaux préexistants leurs discours de légitimation. C’est bien parce qu’il existait déjà une utopie d’Internet défendue par différents acteurs non-marchands, que Google ou Facebook ont par la suite pu capitaliser sur ces espoirs d’émancipation et de partage. De même, la fin du travail est pour partie une utopie du capital (réduire les coûts salariaux), mais c’est aussi une très ancienne utopie sociale27 (se libérer des tâches pénibles et dépourvues de sens), qui a été ensuite instrumentalisée par la Silicon Valley.

Pourquoi de nombreux acteurs de la critique des Big Tech ont-ils succombé à des mythes, qui semblent renforcer le pouvoir des entreprises qu’ils ont combattues ?

Certains accords idéologiques entre les Big Tech et leurs contempteurs s’expliquent en outre par des proximités sociologiques. Parmi les critiques des Big Tech, ceux qui ont reçu la plus grande attention, en France comme aux États-Unis, ont été des hommes, blancs, de milieux sociaux privilégiés. Ce sont souvent des informaticiens, des universitaires ou d’anciens salariés de la Silicon Valley qui ont mis en cause le pouvoir de ces entreprises – ou, pour être plus précis, dont les capitaux économiques et culturels ont permis à ces mises en cause d’être entendues. Il ne s’agit pas ici de discréditer ces acteurs en raison de leurs propriétés sociales ; la critique peut parfois se déployer depuis des espaces sociaux favorisés, sans qu’il faille accuser ses protagonistes de duplicité ou d’inconséquence. L’homogénéité sociologique a en revanche eu des conséquences sur la teneur des contestations et sur leurs perspectives. Nombre d’acteurs de la critique des Big Tech étant issus du même monde social et/ou culturel que les cadres des entreprises mises en cause, il n’est guère étonnant qu’ils aient partagé avec eux certaines représentations, notamment la conviction que les technologies étaient fondamentalement émancipatrices et écologiquement vertueuses.

En matière numérique, les utopies sociales et les utopies du capital ont donc rarement été radicalement divergentes. Elles ont puisé à des références communes : la cybernétique, la science-fiction, la contre-culture, la subculture hacker. Elles ont toutes été nourries par l’imaginaire moderne d’une adéquation entre progrès technique et progrès social. Les mythes de l’immatériel et de la fin du travail ont par conséquent exercé une séduction durable, auprès des Big Tech comme des promoteurs d’un autre numérique. Il est revenu à d’autres acteurs d’essayer de mettre à mal ces représentations.


Lire aussi | Numérique, la fin des illusions ? Anatomie d’une utopie・ (2026)


Photo d’ouverture : Les dirigeants (Verwaltungsrat) de IG Farben vers 1935, avec à gauche au premier plan Carl Bosch et à droite Carl Duisberg. Crédits : Hermann Groeber 

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Max Weber, L’éthique protestante et l’esprit du capitalisme, Flammarion, Paris, 2002, p. 103.
  2. Oliver Nachtwey et Timo Seidl, « The Solutionist Ethic and the Spirit of Digital Capitalism », op. cit.
  3. Cf. S. Altman, « Moore’s Law for Everything », op. cit. La loi de Moore, telle qu’elle est habituellement comprise, postule une croissance exponentielle de la puissance de calcul des ordinateurs, qui doublerait tous les deux ans.
  4. Ibid.
  5. S. Altman, Twitter, 1er mai 2022.
  6. Jeff Bezos, cité in Len Rosen, « Jeff Bezos Wants Manufacturing to Move Off Planet and NASA is Exploring the Possibilities », 21st Century Tech Blog, 7 mai 2022.
  7. Luc Boltanski, De la critique. Précis de sociologie de l’émancipation, Paris, Gallimard, 2009, p. 71.
  8. Cf. Katherine Hayles, How We Became Post-Human. Virtual Bodies in Cybernetics, Literature and Informatics, University of Chicago Press, 1999.
  9. Cf. Armand Mattelart, « Comment est né le mythe d’Internet », Le monde diplomatique, août 2000, p. 26.
  10. Alvin Toffler, La troisième vague, Paris, Denoël, 1985 (1980).
  11. Cf. F. Turner, Aux sources de l’utopie numérique, op. cit.
  12. Rianne Riemens, « Fixing the earth: whole-systems thinking in Silicon Valley’s environmental ideology », Internet Histories, vol. 8, n° 4, 2024, p. 294-311.
  13. Nicholas Negroponte, Being Digital, op. cit., p. 23.
  14. Cf. Kenneth Arrow, « Economic welfare and the allocation of ressources for invention », in National Bureau of Economic Research, The Rate and Direction of Inventive Activity : Economic and Social Factors, Princeton University Press, 1962, p. 609-626.
  15. Joseph J. Romm, audition au Sénat des États-Unis, Committee on Commerce, Science and Transportation, 21 septembre 2000.
  16. Cf. Édouard Morena, Fin du monde et petits fours. Les ultra-riches face à la crise climatique, Paris, La Découverte, 2023, p. 27.
  17. Cf. Ibid.
  18. Cf. Jeremy Rifkin, The End of Work : The Decline of the Global Labor Force and the Dawn of the Post-Market Era, New York, Putnam Publishing, 1995.
  19. Cf. Carl Benedikt Frey et Michael A. Osborne, « The future of employment : How susceptible are jobs to computerisation ? », TFS Technological Forecasting & Social Change, 2013, vol. 114, p. 254-280.
  20. Cf. Sarah T. Roberts, Behind the Screen. Content Moderation in the Shadows of Social Media, New Haven, Yale University Press, 2019.
  21. Sur la notion de « fétichisme de la machine », voir Alf Hornborg, « Machine Fetishism, Value, and the Image of Unlimited Good: Towards a Thermodynamics of Imperialism », New Series, vol. 27, n° 1, 1992, p. 1-18.
  22. Cf. Manuel Castells, The Information Age : Economy, Society and Culture, Oxford, Wiley Blackwell, 1996-1998.
  23. R. Stallman, « Lecture at Kungliga Tekniska Högskolan (KTH) », Stockholm, 30 octobre 1986.
  24. Lawrence Lessig, The Future of Ideas, op. cit., p. 95.
  25. André Gorz, Ecologica, Galilée, Paris, 2008, p. 19.
  26. Francesco Brancaccio, Alfonso Giuliani et Carlo Vercellone, Le commun comme mode de production, Paris, Éditions de l’éclat, 2021, p. 65. Cet ouvrage aborde néanmoins certaines questions environnementales et formule une critique du productivisme, ce qui tranche avec l’oubli total des enjeux écologiques dans nombre d’écrits antérieurs du courant post-opéraïste.
  27. Je désigne comme « utopies sociales » la tradition utopique qui émerge à la Renaissance, avec l’œuvre de Thomas More, se déploie au XIXe dans le « socialisme utopique » (Fourier, Saint-Simon, Claire Démar) et se ramifie au XXe siècle tant dans des approches philosophiques (chez Bloch ou Benjamin) que dans de nouvelles expérimentations sociales (les communautés hippies ou les premières communautés en ligne par exemple).

L’article Comment le numérique est devenu l’utopie du capital est apparu en premier sur Terrestres.

PDF

04.03.2026 à 16:10

Numérique, la fin des illusions ? Anatomie d’une utopie

La rédaction de Terrestres

Trente ans après sa naissance, que reste-t-il des promesses d’émancipation portées par l’utopie d’Internet ? Le bilan s’amaigrit chaque jour, à mesure que l'industrie numérique accélère la victoire du techno-fascisme. Cette septième rencontre Terrestres reviendra aux sources de l'utopie numérique pour comprendre cette infrastructure et son idéologie.

L’article Numérique, la fin des illusions ? Anatomie d’une utopie est apparu en premier sur Terrestres.

Texte intégral (4277 mots)
Temps de lecture : 8 minutes


Table ronde le mercredi 11 mars avec le sociologue Sébastien Broca, l’essayiste Karine Mauvilly et Félix Treguer, chercheur et membre de La Quadrature du Net. Une rencontre organisée par Terrestres à l’Académie du Climat à Paris (19h00-21h30). Entrée libre ! Inscription souhaitée ici.

Vous pouvez aussi suivre les rencontres Terrestres en direct le soir de l’évènement ou bien les écouter tranquillement en différé, grâce à notre partenariat avec la radio associative ∏node.



En 1999, Eric Schmidt, futur PDG de Google entre 2001 à 2011, énonce qu’« Internet est la première chose que l’humanité a construite et qu’elle ne comprend pas, la plus grande expérience d’anarchie que nous ayons jamais eue ». Un quart de siècle plus tard, « la plus grande expérience d’anarchie » est devenue le business le plus profitable de l’économie capitaliste : une poignée d’entreprises dominent l’économie numérique et occupent les sept premières places de la capitalisation boursière mondiale… devant Saudi Aramco huitième et plus grande capitalisation pétrolière mondiale.

Vingt ans plus tard, alors qu’il siège à la Commission de Sécurité Nationale sur l’Intelligence Artificielle, le même Eric Schmidt, devenu central dans la promotion des technologies à la jonction du politique et de l’économie, déclare : « Si nous voulons construire une économie et un système éducatif futurs basés sur le tout-à-distance, nous avons besoin d’une population entièrement connectée et d’une infrastructure ultrarapide. Le gouvernement doit investir massivement – peut être dans le cadre d’un plan de relance – pour convertir l’infrastructure numérique du pays en plateformes basées sur le cloud et les relier à un réseau 5G1 ».

Les sept premières capitalisations boursières mondiales sont toutes des entreprises de l’économie numérique, et regroupe une bonne partie des Big Tech.

Ce projet politique est en voie d’achèvement : en 2025, sans comptabiliser l’usage des écrans pour le travail, la population mondiale a passé en moyenne 6 heures et 45 minutes par jour devant les écrans, dont 2 heures et 31 minutes sur les réseaux sociaux2 ; le numérique est devenu la matrice qui reconfigure et optimise l’ensemble des processus industriels et des macro-systèmes techniques ; en raison de l’explosion de la demande en centres de données, la consommation électrique pourrait être multipliée par 3 entre 2023 et 2030, sachant qu’en 2024, plus de la moitié de la consommation mondiale d’électricité consommée par les centres de données est d’origine fossile3 ; les services publics ont été largement numérisés, tandis que le chantier pour l’école se fait à marche forcée, grâce à des milliards d’euros d’argent public (plan France Relance) ; la surveillance de masse à grande échelle s’approfondit à mesure que les outils se perfectionnent4, etc.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Si cet aperçu quantitatif ne dit pas tout des pratiques5, il souligne un fait massif : en quelques décennies, la civilisation des écrans et du numérique a enfanté un mode d’être, de relations et d’interactions profondément nouveaux. Lorsque les coordonnées de l’expérience humaine sont à ce point modifiées, les sciences humaines ont pour habitude de parler d’un « fait social total » : une réalité sociale complexe et multidimensionnelle, qui interfère sur la totalité de la société et de ses institutions, et façonne les individus.

Illustration de cette nouvelle norme qui concoure à une série de métamorphoses : durant la période de développement foudroyant du numérique, la France a perdu 18 000 de ses bars-tabac entre 2002 et 2022. Si ces lieux de sociabilité ordinaires, tant en ville qu’à la campagne, ont décliné progressivement durant tout le XXe siècle6, la vague de fermetures des deux dernières décennies a porté un coup fatal à une partie du tissu social. Une récente étude du Centre pour la recherche économique et ses applications fait d’ailleurs le lien entre ces fermetures et la progression du vote pour l’extrême droite :« ce n’est pas la fermeture elle-même qui affecte immédiatement les comportements électoraux, mais l’accumulation lente de ses conséquences : la raréfaction des interactions ordinaires, l’appauvrissement de la parole collective, la cristallisation progressive d’un récit de déclin qui peut nourrir un sentiment de relégation et finit par trouver son expression électorale7 ».

L’accélération « de la désagrégation des réseaux sociaux locaux » et « l’érosion d’un mode de vie populaire tout entier » pourraient être mises en regard avec l’impérialisme de l’économie numérique qui ambitionne de refondre l’essentiel des rapports humains et sociaux via l’infrastructure numérique. De la surveillance globale qui abolit la vie privée à l’école numérique en passant par le phénomène d’addictions et de santé mentale, le numérique et son infrastructure écocidaire occupent une place centrale dans la redéfinition du capitalisme contemporain et des pathologies qu’il génère. Comment comprendre la nature de ces transformations ? Pourquoi les promesses d’émancipation sociale et économique portées par les promoteurs d’Internet il y a 30 ans se sont révélées illusoires et ont même accentué les ravages du vieux capitalisme industriel ?

Retour sur la préhistoire et l’histoire du numérique

Cette septième rencontre Terrestres reviendra aux sources de l’utopie numérique née il y a plus de 30 ans. La soirée sera rythmée en quatre temps :

1/ Nous commencerons par une rapide généalogie pour rappeler la préhistoire et l’histoire de ce projet : cybernétique et utopie de la communication après la seconde guerre mondiale et les expériences totalitaires ; micro-informatique dans les années 1970 où se mêlent utopies hippies et libertariennes ; pionniers du numérique et culture hacker dans les années 1990 ; conquête hégémonique dans les années 2010 puis coup d’accélérateur avec le Covid et l’IA.

Au cœur de projet politique du numérique on retrouve l’idée de la neutralité des techniques : les machines numériques seraient de simples instruments au service de la société.

Dans chacun de ces contextes, nous interrogerons les promesses véhiculées à propos d’Internet et réfléchirons aux stratégies des acteurs qui ont participé à son développement. Ainsi, en 2021, Sam Altman, le PDG d’OpenAI, assure que « le progrès technologique suit une courbe exponentielle », annonce « une société bien plus juste, heureuse et prospère » et « un avenir radieux » grâce au développement de l’IA, qui conduira d’après lui à une croissance soutenue. Derrière l’art de la promotion inhérent à cette économie de la promesse et de la recherche incessante de nouveaux investisseurs, se cache un fond d’utopie qu’il convient de mettre à jour. Au cœur de ce projet politique se loge également une idée de la neutralité des techniques érigée en principe : prolongeant les outils, les machines numériques seraient de simples instruments au service de la société et ne feraient que servir les fins qu’on leur assigne : communication, transparence, liberté d’expression, décentralisation, horizontalité, biens communs, etc.

2/ Pour comprendre les mécanismes à l’œuvre, nous convoquerons deux exemples significatifs :

– avec Sébastien Broca et Félix Tréguer, nous reviendrons sur l’ascension des Big Tech au cours des trois dernières décennies. De récentes recherches permettent de comprendre sous un nouveau jour le rôle joué par les acteurs critiques des Big Tech. Malgré leur orientation libérale et leur défense d’un numérique émancipateur, nous verrons qu’ils ont le plus souvent agi de façon symbiotique avec les grandes compagnies de la Big Tech, favorisant in fine leur ascension.

– avec Karine Mauvilly, nous examinerons le chantier de l’école numérique (les justifications avancées, les acteurs qui l’ont soutenu, les coûts, etc.), afin d’en esquisser un premier bilan. Exemple significatif : pionnier du numérique à l’école, la Suède a décidé en 2023 de revenir … à l’école traditionnelle, sans écran8.

3/ Dans un troisième temps de la soirée, nous procéderons à un diagnostic transversal, en examinant la matérialité de cette infrastructure mondiale (ressources énergétiques et métalliques mobilisées, emprise terrestre, métabolisme global à travers les centres de données et les câbles maritimes et terrestres) ; le travail humain qu’elle requiert à travers le monde (travailleurs du clic exploités) ; les subjectivités qu’elle façonne. La description empirique d’une industrie qui n’a cessé de se présenter comme immatérielle permettra de montrer en quoi elle poursuit et accentue les dynamiques de fond du capitalisme industriel.

« Entrons-nous dans le techno-fascisme ? »

4/ Après avoir exposé les ressorts utopiques du numérique et identifié les manières dont les Big Tech se sont appuyées sur les critiques d’un numérique progressiste pour accroitre leur emprise sur la société, puis exposé l’arrière-monde matériel et humain de l’infrastructure numérique, nous réfléchirons à l’après-numérique. À quoi faisons-nous face politiquement ? Dès 1998, Upside, magazine parmi les plus lus à la fin des années 1990 dans la Silicon Valley, s’interrogeait « Entrons-nous dans le techno-fascisme ?9 ». Que penser de ce diagnostic un quart de siècle plus tard, alors que l’utopie d’Internet est devenue un empire économique et politique oligopolistique, dévorant d’immenses ressources et exploitant le travail dans les Suds, contrôlant l’espace public et maître d’une énorme infrastructure mise au service des techniques de gouvernement et de l’industrie de la surveillance ?

Pour sortir du Capitalocène, faudra-t-il également démanteler le numérique ? A quel point s’en émanciper ? Par où commencer ?

Pour sortir du Capitalocène, faudra-t-il également démanteler le numérique ? À quel point s’en émanciper ? Par où commencer ? Depuis la situation de verrouillage présent, est-il préférable d’ouvrir un chemin de désescalade et de réappropriation technologique, à travers l’alternumérisme et le cyberminimalisme, pour déboucher à terme sur une transformation radicale de l’infrastructure ? Mais alors comment ne pas reproduire les illusions passées du mouvement hacker qui a tenté d’inventer des usages subversifs ? Comment ne pas voir dans Mastodon ou Telegram des « compléments de gamme » qui laissent inchangé le cœur de la machine, à l’image du diagnostic de l’Atelier Paysan à propos de la cohabitation inoffensive d’une agriculture bio minoritaire avec le modèle agro-industriel écocidaire ?

L’accélération autoritaire du capitalisme numérique sous l’effet de l’IA ne devrait-elle pas nous inciter à ouvrir une ère de sabotage et de destruction ciblées des technologies numériques ? Comment mettre à l’arrêt une industrie qui ne cesse d’une part de produire des coups d’État technologiques permanents et d’autre part de façonner la part la plus intime de nos subjectivités ? Quelle que soit l’orientation privilégiée, peut-on imaginer une coalition politique qui serait en mesure de permettre une mutation de l’infrastructure numérique ? Comment lutter contre l’économie politique dominante de la Tech ? Nous discuterons des résistances, des alternatives et des stratégies.

Intervenant·es :

  • Sébastien Broca – enseignant-chercheur en sciences de l’information et de la communication à l’Université Paris 8. Ses travaux sur le numérique se situent au carrefour de la sociologie, de l’économie politique et du droit. Il est l’auteur de Pris dans la toile. De l’utopie d’Internet au capitalisme numérique, paru aux éditions du Seuil en 2025.
  • Karine Mauvilly essayiste, formée en droit et en sciences politiques, a été journaliste et enseignante. En 2016, elle a cosigné Le Désastre de l’école numérique. Plaidoyer pour une école sans écrans avec Philippe Bihouix (éditions du Seuil) et est l’autrice de Cyberminimalisme, paru en 2019 (éd. du Seuil).
  • Félix Tréguerchercheur associé au Centre Internet et Société du CNRS. Ses recherches se situent au croisement des sciences de l’information et de la communication, de la sociologie, de l’histoire et du droit. Auteur de Une Contre-histoire d’Internet : du XVe siècle à nos jours (Agone, 2023) et de Technopolice. La surveillance policière à l’ère de l’intelligence artificielle (Divergences, 2024), il est également membre de La Quadrature du Net.

Photo d’ouverture : Aileen Devlin | Jefferson Lab.

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Cité par Ivan Bouchardeau, Etats d’esprits, Cybernétique et techniques de gouvernement, Paris, Champ vallon, 2026, p. 6-8.
  2. https://digiexe.com/fr/blog/screen-time-statistics/
  3. Shift Project, Intelligence Artificielle, Données, Calculs : Quelles Infrastructures dans un Monde Décarboné, octobre 2025, https://theshiftproject.org/publications/intelligence-artificielle-centres-de-donnees-rapport-final/. Par ailleurs, « Selon un rapport des Nations unies publié le 20 janvier, les entreprises étrangères ont investi 69 milliards de dollars dans la construction de centres de données et d’infrastructures liées à l’intelligence artificielle en France l’an dernier. Ce montant est deux fois supérieur à celui enregistré aux États-Unis et trois fois supérieur à celui de la Corée du Sud. https://legrandcontinent.eu/fr/2026/01/24/la-france-est-le-pays-qui-a-recu-le-plus-dinvestissements-etrangers-pour-la-construction-de-centres-de-donnees-en-2025/
  4. Dernier exemple en date : les données générées par les marchés publicitaires permettant de géolocaliser les téléphones à travers le monde sont revendues par certaines entreprises aux services de renseignement ou de police à des fin de géolocalisation et de traçage, voir : https://www.lemonde.fr/pixels/article/2026/01/21/comment-l-industrie-de-la-publicite-en-ligne-alimente-en-secret-la-surveillance-d-etat_6663454_4408996.html
  5. 15 minutes de lecture électronique sur les 7h et 2 minutes d’écrans chez les américains en 2025.
  6. Antoine Prost, Si nous vivions en 1913, Paris, Grasset & Fasquelle/Radio France, 2014.
  7. Hugo Subtil, «  Quand les bars-tabacs ferment. L’érosion du lien social local et la progression du vote d’extrême droite en France », 30 janvier 2026. https://www.cepremap.fr/2026/01/quand-les-bars-tabacs-ferment-lerosion-du-lien-social-local-et-la-progression-du-vote-dextreme-droite-en-france/
  8. « Éloge du papier à l’heure du déluge numérique », par Benoît Bréville & Pierre Rimbert (accès libre, janvier 2026) // https://www.monde-diplomatique.fr/69172
  9. Cité par Sylvie Laurent, La Contre-révolution californienne, Paris, Seuil, 2025, p. 63-64.

L’article Numérique, la fin des illusions ? Anatomie d’une utopie est apparu en premier sur Terrestres.

PDF

12.02.2026 à 16:24

Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche

Guillaume Carnino

À mesure qu’une partie de la gauche découvre l’écologie, on ne cesse de constater qu’elle reste profondément industrialiste, prisonnière de sa foi dans le progrès et la neutralité des techniques. L’historien des techniques Guillaume Carnino adresse une série d’objections à C. Durand et R. Keucheyan, auteurs de “Comment bifurquer ? Les principes de la planification écologique”.

L’article Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche est apparu en premier sur Terrestres.

Texte intégral (18502 mots)
Temps de lecture : 39 minutes

À propos de Cédric Durand et Razmig Keucheyan, Comment bifurquer ? Les principes de la planification écologique, Paris, La Découverte, 2024 (254 pages) et de Cédric Durand, Faut-il se passer du numérique pour sauver la planète ?, Paris, Amsterdam, 2025 (164 pages).


« Faut expliquer : tu vois, y’a le mauvais chasseur, il voit un truc qui bouge, il tire, il tire. Le bon chasseur, il voit un truc, il tire, mais… c’est un bon chasseur. »

Les Inconnus

À l’instar du bon et du mauvais chasseur, il y aurait, d’après Cédric Durand et Razmig Keucheyan, le bon et le mauvais numérique, le bon et le mauvais État, le bon et le mauvais marché, le bon et le mauvais capitalisme industriel. Respectivement économiste et sociologue, les deux auteurs tentent, dans leurs derniers ouvrages, de proposer des voies de sortie de la crise environnementale contemporaine. Si ces textes – dont la lecture est aussi ennuyeuse que celle d’un programme politicien – ne passeront probablement pas à la postérité, ils ont l’intérêt de révéler les stratégies industrialistes et technologiques d’une frange non négligeable de ces universitaires se revendiquant politiquement de la gauche. Les analyses de Cédric Durand et Razmig Keucheyan offrent en effet une base programmatique à la France insoumise, et reflètent une position commune au sein d’une partie de la gauche marxiste, condamnée à la cogestion du désastre et donc à l’impuissance – d’où ces tentatives accélérationnistes et éco-modernistes qui ne cessent de revenir sur le devant de la scène, alors même qu’elles ont déjà amplement révélé qu’elles constituaient des impasses.

Dans Comment bifurquer ? Les principes de la planification écologique (La Découverte, 2024), Durand et Keucheyan analysent les limites des positionnements économistes actuels face à l’urgence climatique : ils espèrent ainsi paver la voie d’une stratégie politique permettant de sortir de l’ornière écocidaire dans laquelle nos sociétés s’enfoncent un peu plus chaque année. Dans Faut-il se passer du numérique pour sauver la planète ? (Amsterdam, 2025), Durand retranscrit trois conférences présentées par l’Institut La Boétie (think tank de La France insoumise), et qui, à partir d’une critique de la concentration monopoliste des GAFAM, visent à infléchir le numérique vers davantage d’égalité sociale et de justice environnementale.

Notre critique de ces deux textes s’organise en quatre temps : après avoir fait part de notre étonnement quant à la référence appuyée à certaines politiques de la Chine contemporaine, nous proposons une analyse critique de leur conception du numérique mondialisé. Dans une troisième partie, nous discutons des conséquences de leur méconnaissance de l’histoire industrielle, une ignorance dommageable car elle engendre une série de contresens sur la nature des processus en cours. Enfin, nous terminons par la mention de plusieurs travaux montrant à quel point leur insistance sur la décision en matière de politique technologique évacue les principaux enjeux environnementaux du monde industriel contemporain.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

La Chine contemporaine, modèle écologique ou premier pays pollueur au monde ?

Ce qui étonne assez directement à la lecture de Durand et Keucheyan, c’est leur admiration pour la Chine d’aujourd’hui du point de vue politique et environnemental : la Chine aurait mis en place de nombreux leviers bénéfiques, dont on pourrait s’inspirer afin de « bifurquer » vers un monde meilleur. Si les auteurs en appellent à plusieurs reprises à un renouvellement des formes démocratiques contemporaines, notamment en matière d’écologie, ils semblent néanmoins avoir quelque appétence pour les régimes politiques forts, puisqu’ils revendiquent la constitution de cybersoviets (D1181 ) et voient dans la dictature sud-coréenne de Park Chung-Hee une situation à certains égards inspirante (DK144). Mais c’est dans leurs louanges adressées aux politiques chinoises contemporaines que cette tendance est la plus visible. Il convient ici de citer directement ces propos.

À rebours des nombreux travaux dénonçant les ravages psychosociaux du crédit social chinois2, Durand vante les mérites de ce système, même s’il met en garde contre ses « dérives possibles » (D44) : « Contre l’ignorance créée par le marché, le système de crédit social permet de stabiliser les réputations et de réencastrer les échanges marchands dans le social. » (D44) Là où les sociétés du face-à-face ont été massivement transformées par l’anonymat urbain et la massification industrielle, recourir à un système de gestion numérique de la confiance permettrait de « partir des masses pour retourner aux masses » (Mao est ici directement convoqué et cité – D44, voir aussi D162).

Shanghai, Chine. Crédits : Leon Hu.

Autre source d’inspiration théorique, Jack Ma (créateur du site internet marchand Alibaba.com et président d’Alibaba Group jusqu’en 2019) est longuement commenté au sujet de sa vision du big data et de la prédiction algorithmique, qui permettrait de devenir plus efficace que le marché lui-même en matière de planification et d’optimisation économique (D109-111). Partisan de la nationalisation étatique, Durand suggère que des représentants du gouvernement siègent dans les conseils d’administration des grandes entreprises du numérique, à l’instar de ce qui se fait en Chine : « Ce dispositif a été adopté par la Chine depuis quelques années : l’État chinois est actionnaire des grandes firmes, […] ce qui lui permet d’avoir un droit de regard sur toutes les décisions stratégiques et techniques des Big Tech » (D91, voir D151 aussi).

La stratégie de Temu (une plateforme de commerce en ligne, exploitée par la société chinoise PDD Holdings Inc., qui propose des produits à prix cassés, expédiés aux clients directement depuis les usines) est aussi convoquée comme moyen d’« établir une connexion permanente entre les besoins et la production, et d’orienter cette dernière selon des préférences et des choix collectifs qui ne se réduisent pas à de simples prix » (D120-121). Ce que Durand perçoit comme une vertu est depuis longtemps intégré au sein du marketing contemporain, les mécanismes les plus affûtés de la publicité contemporaine recourant au pair-à-pair (P2P) dont les recommandations commerciales sont bien plus efficaces que les messages publics impersonnels. Vantant à cet égard les mérites de la figure du prosumer (sic), contraction de producer (producteur) et consumer (consommateur), Durand et Keucheyan écrivent ainsi qu’« il ne s’agit plus là de sortir de l’échange marchand mais au contraire de rechercher les voies d’un engagement marchand approfondi » (DK174).

Comment peut-on, en 2025, percevoir la Chine de Xi Jinping comme un modèle environnemental tout en se revendiquant d’une certaine émancipation ?

Alors que de nombreux auteurs peu évoqués dans ces ouvrages dénoncent, depuis l’avènement du numérique, sa participation à un projet politique délétère3, Durand joint sa voix au cœur des pourfendeurs récents de la « mutation fasciste du capitalisme numérique » (D11), qu’il n’hésite pas à qualifier de « grand événement de l’histoire universelle » (D146). Ce revirement lui fait désormais percevoir les GAFAM comme l’incarnation d’un nouveau Mal. À l’inverse, la riposte industrielle chinoise est vantée comme un incomparable Bien : « Sous les coups de boutoir des prouesses numériques chinoises, le vernis des prétentions suprémacistes des géants de la côte Ouest s’écaille » (D164). Il est néanmoins probable que si Baidu, Alibaba, Tencent et Xiaomi font trembler les GAFAM, ce n’est pas pour leur programme politique émancipateur.

Harbin, Heilongjiang, Chine. Crédits : Ziang Guo.

Mais la palme revient sans doute à cette assertion, commune aux deux auteurs qui voient dans la nation chinoise un modèle écologique : « La Chine est en avance sur ses objectifs de décarbonation » (DK152). Premier pays producteur de gaz à effet de serre (plus de 30 % des émissions mondiales), la Chine industrielle produit tous les trois ans, depuis 2003, autant de béton que les États-Unis au cours du XXe siècle4. Multiplier les statistiques sur les pollutions engendrées par ce territoire devenu l’usine du monde semble inutile tant l’affaire est scientifiquement et médiatiquement rebattue : la dégradation très rapide de l’environnement y est telle que le pays, comme toute puissance de premier plan, est contraint d’exporter ses pollutions pour maintenir sa trajectoire industrielle.

Boues de cartouches de toner usagées issues du broyage. Guiyu, Chine. Crédits : baselactionnetwork.

Comment peut-on, en 2025, percevoir la Chine de Xi Jinping comme un modèle environnemental tout en se revendiquant d’une certaine émancipation ? S’agit-il d’un soutien politique volontaire (à l’instar des communistes ayant longtemps défendu le régime stalinien ou de l’extrême droite contemporaine qui s’aligne invariablement sur la Russie de Poutine) ou d’un simple aveuglement idéologique ? Tous les projets de « décarbonation » issus de la pensée économique mainstream réduisent la crise écologique à un problème climatique, mesuré à partir des émissions de CO2, maintenant ainsi le réductionnisme économiciste largement à l’origine des ravages en cours. Dans tous les cas, il convient d’étudier plus avant la rhétorique des auteurs afin de voir comment s’enchâssent ces louanges à l’égard des politiques chinoises dans leur programme politique plus général.

Les effets de réseau du numérique

Durand rêve d’une Europe numérique forte : déplorant le « décrochage européen […] manifeste » (D33) en la matière, et vantant le besoin de « technologies souveraines » (D93), il plébiscite l’interventionnisme étatique en faveur de l’environnement et de la justice sociale : « le numérique lui-même doit faire l’objet d’une planification écologique consciente » (D129). La récente crise sanitaire mondiale est le seul exemple donné quant aux potentialités concrètes de redéploiement du numérique vers davantage d’écologie : « pendant la pandémie de Covid-19, l’Union européenne a négocié avec Netflix une baisse de la qualité des images diffusées par la plateforme pour permettre le développement du télétravail » (D129). Pour le reste, il faut se contenter de déclarations de bonnes intentions quant à « l’utilisation ciblée du numérique à des fins de planification écologique et de décroissance matérielle » (DK123), car imaginer se passer du numérique serait « illusoire » (D140) : « Il nous faudra donc discriminer dans les usages du numérique, développer des mesures de sobriété dans l’usage des outils innovants qui émergeront » (D142). Cette croyance dans la possibilité de sélectionner les seuls effets écologiquement souhaitables d’un système technique aussi immense que l’agrégation d’ordinateurs et de réseaux que constitue le numérique aujourd’hui fait état d’une méconnaissance profonde de la nature de celui-ci. Il convient donc de rappeler quelques généralités quant au numérique mondialisé.

Lire aussi | Planification écologique : frein d’urgence ou administration de la catastrophe ?・Geneviève Azam (2023)

Un rapport de 2021 indique ainsi qu’en Europe la part d’utilisation des ressources fossiles serait de 62 % pour les terminaux, de 14 % pour les réseaux et de 24 % pour les centres de données – des chiffres relativement similaires aux évaluations en termes de toxicité environnementale ou de d’impact climatique du numérique5.

La croyance dans la possibilité de sélectionner les seuls effets écologiquement souhaitables d’un système technique aussi immense que le numérique traduit une méconnaissance profonde de la nature de celui-ci.

Les terminaux utilisateurs constituent la face émergée de l’iceberg : ordinateurs, téléphones, tablettes, objets connectés, etc. sont la dimension visible du numérique pour l’utilisateur. Un smartphone contient de très nombreux matériaux, notamment métalliques : nickel, plomb, étain, bismuth, or, argent, tungstène, platine, rhodium, béryllium, cuivre, phosphore, arsenic, gallium, germanium, silicium, zirconium, ruthénium, néodyme, fer, bore, samarium, cobalt, praséodyme, chlore, dysprosium, tantale, niobium, palladium6 – composés qui doivent être extraits de la croûte terrestre pour fabriquer les 1,4 milliard d’appareils mis en circulation chaque année sur Terre7. Malgré les ravages déjà considérables de l’industrie minière, on s’apprête à extraire en quelques décennies davantage de métaux dans la croûte terrestre que l’on en a miné au cours de l’histoire humaine, sans compter le silicium, constituant de base des puces électroniques que l’industrie s’emploie à insérer dans tous les objets du quotidien8.

Kalgoorlie WA, Australie. Crédits : Matthew de Livera.

L’historien Christophe Lécuyer a ainsi montré combien la trajectoire environnementale de la « vallée du silicone » était délétère9. Dès les années 1950, la firme IBM mène des études et sait que la production électronique engendre des effets néfastes sur la santé, par la suite confirmés par des enquêtes toxicologiques : pollution des nappes phréatiques contaminant l’eau (consommée par les populations à proximité), maladies respiratoires faisant suite à des inhalations acides, destruction de la couche d’ozone liée à l’émission de chlorofluorocarbures (interdits par le protocole de Montréal en 1987, mais de nouveau illégalement émis en grande quantité depuis le début des années 2010), cancers et malformations infantiles engendrées par du trichloréthylène, etc.

Malgré les ravages déjà considérables de l’industrie minière, on s’apprête à extraire en quelques décennies davantage de métaux dans la croûte terrestre que l’on en a miné au cours de l’histoire humaine.

Au fondement de l’électronique réside la matérialité des puces : logiques pour les calculs, mémoires pour le stockage de données, analogiques pour numériser des signaux comme le son ou la lumière, capteurs divers, etc. La fabrication de ces dispositifs à semi-conducteurs est un procédé complexe – et qui ne cesse de se complexifier davantage – utilisant le plus couramment du silicium (extrait du quartz, puis transformé en silicium métal, avant d’être raffiné en polysilicium, soit environ 2933 kWh d’électricité pour produire 1 kilogramme de plaque de silicium à graver10– c’est-à-dire environ les deux tiers de la consommation annuelle d’un ménage français moyen). Les principales étapes au cours desquelles le circuit est peu à peu produit sur un disque de matériau semi-conducteur (le wafer) recouvrent notamment la photolithographie (qui inscrit le masque à graver), la passivation et l’oxydation thermique (création d’un film protecteur par projection d’un agent oxydant à haute température), le dopage (ajout d’impuretés en petites quantités afin de modifier la conductivité), la métallisation (revêtement de la surface avec un métal afin de créer un chemin de retour pour le courant électrique) et la gravure (étape critique qui consiste à retirer une ou plusieurs couches de matériaux à la surface du wafer).

Chacune de ces étapes doit être maîtrisée et contrôlée, c’est-à-dire réalisée dans un environnement hermétique et exempt de toute micropoussière, que l’on appelle conséquemment « salle blanche ». Produire une micropuce électronique consommerait ainsi 32 litres d’eau, soit 20 000 litres pour un ordinateur11 – des estimations très probablement sous-évaluées. Les entreprises qui réalisent cette production, bien que rarement médiatisées, sont parmi les plus cotées financièrement : la capitalisation boursière de TSMC (Taiwan Semiconductor Manufacturing Company) est de 600 milliards de dollars en 2021, soit l’une des dix entreprises les plus chères du monde. Sa nouvelle ligne de production entrée en service en 2022 a coûté 20 milliards de dollars : une salle blanche qui recouvre la surface de vingt-deux terrains de football12. En 2020, la Chine a acheté 350 milliards de dollars de puces électroniques, soit davantage que ses importations de pétrole. En 2021, l’industrie des semiconducteurs a produit 1,1 billion de puces (soit 140 par personne sur Terre) – le dispositif le plus complexe que l’être humain ait jamais produit, dont le cycle de vie (fabrication, tests, packaging) peut impliquer le franchissement de plus de 70 frontières pour un déplacement supérieur à 40 000 kilomètres13.

Une puce informatique sur une carte de circuit imprimé. Crédits : Bermix Studio.

Si quelques rumeurs justifiant l’augmentation du prix des ordinateurs et téléphones suite à la pandémie de Covid-19 ont circulé au sujet des entreprises de microélectronique, l’historien Chris Miller parle sans ambages de la « guerre des semi-conducteurs » comme de l’enjeu stratégique mondial14 : ayant participé à asseoir la puissance militaire américaine, ces composants à la base de l’électronique se sont largement mondialisés et se spécialisent aujourd’hui (pour la performance graphique, pour l’intelligence artificielle, etc.) à mesure que leur coût de fabrication augmente avec leur miniaturisation. La première puce comptait quatre transistors, contre 15 milliards pour celles produites actuellement, alors que seules trois entreprises tiennent la course : TSMC en tête, talonnée par Samsung et Intel. Dès 1985, le physicien Richard Feynman envisageait une limite inférieure en termes de taille à trois atomes pour la construction de transistors15  : or, plus on descend technologiquement vers l’infiniment petit et l’ultimement précis, plus cela nécessite de l’énergie en quantité importante et donc, des coûts considérables.

Dans la fabrication des puces, plus on descend technologiquement vers l’infiniment petit et l’ultimement précis, plus cela nécessite de l’énergie en quantité importante et donc, des coûts considérables.

Par ailleurs, loin de se limiter à des rachats entre grandes firmes, la concurrence capitaliste liée aux micropuces engendre de véritables conflits, et de nombreux morts. Le sociologue Fabien Lebrun a étudié le cas du Congo (RDC) où, depuis les années 1990, l’explosion mondiale de la production de biens électroniques a déclenché une guerre des métaux technologiques qui n’a fait que gagner en intensité depuis16. La région des Grands Lacs en Afrique subit depuis des siècles les ravages de la mondialisation, dont l’extraction des « minerais de sang » (coltan pour les smartphones, cobalt pour les batteries « vertes ») constitue le dernier avatar : économie militarisée, criminalité institutionnalisée, pillage généralisé, travail forcé, viol comme arme de guerre, destruction des forêts et anéantissement de la biodiversité comptent parmi les fléaux qui prospèrent dans le sillage de la « dématérialisation » numérique17.

Lire aussi | Un néo-colonialisme technologique : comment l’Europe encourage la prédation minière au Congo・Celia Izoard (2025)

Les infrastructures de transport font voyager les données dans les deux sens entre le fournisseur d’accès contacté depuis un terminal et le fournisseur de contenu. Ces informations peuvent emprunter plusieurs voies pour arriver à bon port (d’où d’ailleurs la robustesse du réseau des réseaux) : communication interne à un même fournisseur d’accès, réseaux de diffusion de contenu (CDN, pour Content Delivery Network), peering privé, points d’échange internet (IXP, Internet eXchange Point) et transporteurs de transit. Les CDN n’existaient pas au début de l’internet commercial, mais aujourd’hui, presque tous les acteurs marchands les emploient d’une manière ou d’une autre pour le contenu régulièrement sollicité. Le plus grand fournisseur tiers de services CDN aux États-Unis est Akamai, avec des revenus de 2,7 milliards de dollars en 201818. Bien que les réseaux de diffusion de contenu soient invisibles pour l’utilisateur, la grande majorité des données reçues passe directement par cette voie. S’il existe des centaines d’IXP aux États-Unis, le plus grand opérateur au monde est Equinix, avec un chiffre d’affaires de plus de 5 milliards de dollars et plus de 200 centres de données dans de nombreuses villes, dont certains sont directement configurés pour servir d’IXP19.

Intérieur d’uin data centers. Photo by Aileen Devlin | Jefferson Lab

Si les satellites sont souvent présentés comme un symbole de la communication du futur, 99 % des données numériques transitent à la surface du globe via des câbles souterrains et sous-marins20. Internet repose ainsi autant sur les câbles terrestres (à l’instar de la fibre optique qui connecte 83 % des foyers en 2023 en France21) que maritimes (dont le plus long, SEA-ME-WE 3, qui connecte l’Asie du Sud-Est, le Moyen-Orient et l’Europe de l’Ouest, totalise 39 000 km, alors que 2Africa, son concurrent direct revendiquant 45 000 km, est en train d’être mis en service). À l’aube des années 2020, le globe est quadrillé par plus de quatre cents câbles sous-marins, pour un total d’environ 1,3 million de kilomètres. Même les zones les plus inhospitalières, comme l’océan Arctique, font l’objet de négociations et de batailles géopolitiques et industrielles afin d’y installer ces autoroutes de l’information, notamment parce que la mise en place d’une liaison internet stable dynamise et rend possible la montée en puissance d’autres activités industrielles (ainsi, le gouvernement russe et les agences fédérales états-uniennes responsables de la route maritime du Nord souhaitent développer le câble Polar Express pour y connecter les ports et les sites d’extraction de ressources tout le long du Passage du Nord-Est22).


Source : www.submarinecablemap.com

L’aspect technique de ces explications ne doit pas nous égarer quant à la prétendue dématérialisation : sur Terre, les dix millions d’antennes-relais (2G à 5G), le milliard de box DSL/fibre, les deux cents millions d’équipements autres (routeurs, bornes WiFi, etc.), le million de kilomètre de câbles sous-marins et la centaine de millions de serveurs dédiés accaparent tant de matières et d’énergie qu’ils constituent l’une des plus vastes entreprises de matérialisation jamais engagées par l’humanité23.

Le cloud (qui ne peut être réduit aux GAFAM, comme le croit Durand, D75) est enfin constitué par les infrastructures de stockage de données réparties sur le globe dans un peu moins d’une dizaine de milliers de data centers. Un data center, ou centre de données, est l’infrastructure industrielle permettant d’héberger plusieurs milliers de serveurs informatiques en un même site24. Cela implique de calibrer le bâti (résistance au sol pour des baies de serveurs pouvant dépasser une tonne, faux-plancher ou chemins de câbles au plafond pour la connectique, allées froides et chaudes afin d’optimiser la climatisation, etc.), l’alimentation électrique (les six plus gros centres sur Terre sont alimentés à plus de 100 MW, soit davantage qu’une ville de plusieurs dizaines de milliers d’habitants25), la climatisation (toute panne pouvant déclencher un incendie tant la chaleur émise par les machines est importante), le câblage (chaque salle machine contient plusieurs tonnes de câbles savamment agencés26), l’interconnexion aux réseaux numériques (bien souvent à proximité des grandes villes où streaming, sites commerciaux, jeux vidéo et finance consomment beaucoup de puissance de calcul et de bande passante), la sécurité énergétique et physique (groupes électrogènes dotés de cuves de fioul de plusieurs hectolitres, sas biométriques, vigiles, etc.), et la maintenance de l’ensemble de ces activités (ce qui nécessite une main d’œuvre en permanence sur site afin de pallier les défaillances récurrentes des systèmes27).

Le numérique accapare tant de matières et d’énergie qu’il constitue l’une des plus vastes entreprises de matérialisation jamais engagées par l’humanité.

Même les petites structures de quelques centaines de mètres carrés sont soumises à de véritables contraintes industrielles d’optimisation, là où les plus grands centres de la planète sont de véritables usines à données : le China Telecom-Inner Mongolia Information Park dispose d’une capacité totale de 100 000 baies, soit 1,2 million de serveurs répartis sur 1 kilomètre carré et alimentés à 150 MW, pour un coût total évalué à 3 milliards de dollars. Comme le résume un consultant de la filière : « il n’y a pas de bâtiment qui, au mètre carré, coûte plus cher qu’un centre de données de haut niveau28 ».

Le cloud est une prolifération d’usines

Récapitulant l’histoire de la concentration industrielle des machines informatiques, l’historien Nathan Ensmenger énonce cette vérité simple mais trop méconnue : le cloud est une usine (« the cloud is a factory29 »). À l’échelle du globe, c’est d’ailleurs le charbon, bien plus que l’éolien ou le nucléaire, qui alimente ces gigantesques centres de calculs et de données. La multinationale Google tente ainsi de redorer son blason environnemental en promettant la mise en place d’infrastructures colossales visant à fournir une électricité renouvelable à l’ensemble de son parc de machines30) : puisque l’éolien ou le solaire ne sont pas des énergies suffisamment stables en termes calendaires, plutôt que de les suppléer intégralement par des énergies fossiles (comme c’est généralement le cas aujourd’hui), la firme construit des parcs continentaux d’infrastructures « renouvelables » afin de les activer algorithmiquement au gré de la météo et de ses besoins énergétiques. À terme, l’idéal consisterait à faire coïncider les aléas de la production d’électricité avec la répartition des calculs sur une zone étendue (voire la planète), afin de ne plus être tributaire du fossile.

Quand bien même ces énergies prétendument renouvelables ne dépendraient pas d’énergies carbonées pour la production de leurs infrastructures, on peine à imaginer comment le fait de recouvrir des déserts de panneaux solaires et des océans d’éoliennes pourrait être une solution face aux atteintes environnementales contemporaines. On saisit alors à quel point le déploiement du numérique implique une réorganisation colossale du monde afin de rendre à chaque instant disponibles les données requises : l’empreinte écologique d’internet est gigantesque, et elle ne fait que croître. Le numérique encapsule et optimise l’ensemble des processus industriels et des macro-systèmes techniques, tout en constituant lui-même un secteur industriel à part entière. Alors que s’accroît la longueur des chaînes industrielles grâce au numérique, l’empreinte géographique de celui-ci s’accentue ; et à mesure que l’emprise territoriale du numérique augmente, la capacité d’optimisation qu’il offre grandit ; ad infinitum.

Le numérique encapsule et optimise l’ensemble des processus industriels et des macro-systèmes techniques, tout en constituant lui-même un secteur industriel à part entière.

Avant l’explosion de l’industrie du data center liée au développement des intelligences artificielles génératives, une controverse existait quant au fait que l’amélioration de l’efficacité énergétique des machines puisse endiguer la croissance de l’impact environnemental liée au développement des centres de données31. Certains auteurs faisaient remarquer que la baisse relative de consommation électrique cachait en réalité une augmentation de la consommation d’eau32 (les nouvelles technologies de climatisation fonctionnant de façon plus « sobre » d’un point de vue électrique nécessitaient davantage de ressources hydriques). Autrement dit, la facture environnementale doit toujours être payée à un moment ou à un autre. David Bol, spécialiste des systèmes électroniques minimalistes, explique d’ailleurs que les arguments vantant l’amélioration de l’efficacité énergétique sont fallacieux et dangereux tant ils masquent la fuite en avant contemporaine33.

Une deux plus grandes décharges d’E-Waste au monde à Agbogbloshie (Ghana). Crédits.

Quoi qu’il en soit, à l’heure des investissements massifs dans les technologies de l’intelligence artificielle, ces débats des années 2010 paraissent presque lunaires : « Amazon, Microsoft, Google et Meta (Facebook, Instagram) [investissent] en 2024 […] 200 milliards de dollars (187 milliards d’euros) en nouvelles infrastructures, soit 45 % de plus qu’en 2023 et 180 % par rapport à 201934 » – des placements logiques quand on sait qu’une requête sur un assistant d’intelligence artificielle générative consommerait dix fois plus d’électricité d’une simple recherche sur Google, elle-même pourtant déjà l’agrégat de calculs dispatchés dans les quelques 900 000 serveurs de la firme.

Dans la droite ligne du vieux projet de contrôle cybernétique intégral, l’idée de maintenir le quasi-million de serveurs de Google pour ne réaliser que des recherches internet bénéfiques pour l’environnement relève de la fable sociotechnique.

On comprend à quel point les volontés de faire « bifurquer le numérique » vers davantage de sobriété sont naïves et irréalistes : d’après Durand, « les data centers d’aujourd’hui regorgent d’informations ultra-précises couvrant un spectre immense d’activités et d’objets humains et non humains. Il y a là, potentiellement, une infrastructure informationnelle inouïe pouvant être mise au service de la bifurcation » (D121). Dans la droite ligne du vieux projet de contrôle cybernétique intégral, l’idée de maintenir le quasi-million de serveurs de Google pour ne réaliser que des recherches internet bénéfiques pour l’environnement relève de la fable sociotechnique. Véritable pensée magique du numérique, ces incantations sont aussi absurdes que si l’on entendait maintenir les infrastructures autoroutières, minières et pétrolifères de la civilisation automobile pour ne laisser circuler que les ambulances. Ce qui n’empêche pas Durand et Keucheyan de claironner qu’« un autre numérique est possible » (DK115), et de déplorer la « perte de contrôle sur nos existences, accaparées et contrôlées par le numérique » (D51), puisque d’après eux, ce sont les méchants GAFAM qui s’accaparent aujourd’hui indûment les bénéfices d’une industrie qui jadis profitait à tout le monde. Et l’on saisit alors qu’ils ne connaissent pas mieux les dynamiques historiques de l’industrialisation que celles du numérique.

Une histoire industrielle méconnue

D’après les dires de Durand lui-même (D19), son concept phare de technoféodalisme (qui vise à épingler l’hégémonie prédatrice des firmes monopolistiques étasuniennes du numérique35 – les GAFAM ou Big Tech) est emprunté à un ouvrage de jeu de rôle publié en 199036. De la même manière (D98), c’est dans le feuilleton télévisé Star Trek que Durand va chercher le concept de cyber-éco-communisme (quand la conscience numérique globale de l’humanité subordonnerait enfin l’économique au politique), revendiquant ainsi cette abondance technologique débridée qui percole l’ensemble des épisodes de la série. L’inspiration conceptuelle en dehors du champ académique n’est pas un problème en soi, mais que les notions centrales d’une critique qui se veut anticapitaliste soient directement issues de la culture de masse produite par l’industrie du divertissement a de quoi laisser perplexe.

On ne peut reprocher à un auteur d’avoir tout lu – une tâche impossible en l’état de la science numérique mondialisée. Mais il aurait néanmoins pu être judicieux, dans le cadre de livres programmatiques traitant de numérique, de capitalisme industriel et d’environnement, d’aller regarder quelques travaux d’histoire des technologies, de sociologie de l’industrie, de philosophie des techniques, d’économie de la subsistance, d’histoire de l’environnement, de critique de la valeur, d’écologie politique ou même de STS consacrés aux liens entre industrie, numérique et pollution.

The Romance of Indian Railways 1975.

Cette cécité par rapport aux travaux récents conduit à une série de contresens ou de fausses ruptures historiques. Durand perçoit ainsi la prédation des Big Tech sur des infrastructures et productions mutualisées comme une nouveauté radicale propre au technoféodalisme numérique (D73), là où en réalité l’histoire de l’industrialisation regorge, depuis deux siècles au moins, de ce type d’accaparement. Ainsi le déploiement du chemin de fer indien est-il entièrement préempté par des firmes britanniques : les bénéfices revenaient aux compagnies anglaises mais la main-d’œuvre était fournie par le gouvernement indien, qui devait par ailleurs garantir le remboursement des capitaux anglais en cas d’échec du projet (i.e. 95 000 000 £ investies entre 1845 et 1875 pour installer plus de 8 000 km de lignes37). La construction des infrastructures technologiques est le fruit d’une mutualisation des coûts par les gouvernements (y compris aux États-Unis, prétendue terre du libre-échange38), généralement suivie à plus ou moins brève échéance par une privatisation des bénéfices. L’histoire de la construction des réseaux numériques ne diffère aucunement de cette histoire industrielle : les acteurs de la téléphonie, financés par l’État, ont installé les infrastructures ayant rendu possible le déploiement des multinationales du numérique.

L’économiste Marianna Mazzucato montre que les fonds publics sont à l’origine du développement des plus grands succès de la firme Apple (iPod, iPhone et iPad), et que cette situation est la norme et non l’exception : le même type de soutien appuie le développement des nanotechnologies, des biotechnologies, des énergies renouvelables industrielles, des firmes pharmaceutiques, etc.39 L’histoire de l’industrialisation nous apprend que l’organisation duale État/entreprises permet invariablement de mutualiser les coûts et de privatiser les bénéfices.

La tranquillité apparente de la personne connectée au réseau est conditionnée par un encadrement serré de son intégration ; l’abondance tangible est arrimée sur une mise en dépendance globale.

De la même manière, Durand perçoit une situation inédite et spécifique au technoféodalisme des Big Tech dans la monétisation des rapports de dépendance à certaines productions (D155). La quasi-totalité de l’histoire des macro-systèmes techniques expose pourtant ces mêmes dynamiques à l’œuvre, et ce dès les débuts de la construction des grands réseaux technologiques (gaz, électricité, téléphone, etc.40 ). Car l’intérêt d’un macro-système technique réside dans sa capacité à délivrer de certaines contraintes en regroupant leur production en des lieux distants afin de pouvoir bénéficier de leurs effets en tout point du réseau : on croit alors posséder en propre une faculté disponible sur le lieu du branchement au système (la voiture sur la route, le smartphone tenu dans la main, le plat surgelé sorti du congélateur, etc.), faculté qui est en réalité conditionnée par d’immenses chaînes de traitement en amont et en aval, et dont le point réticulaire auquel on se branche a incessamment besoin pour continuer à exister. La tranquillité apparente de la personne connectée au réseau est conditionnée par un encadrement serré de son intégration ; l’abondance tangible est arrimée sur une mise en dépendance globale. Historiquement, cette dépendance est la source de nombreuses résistances face au développement de ces réseaux technologiques. Dès les débuts du XIXe siècle, les promoteurs français de l’éclairage au gaz sont ainsi confrontés aux réticences des élites mondaines, voyant d’un mauvais œil cette subordination des foyers à l’industrie qui remet en cause la hiérarchie sociale : le « père de famille [se verrait soumis] au pouvoir d’un industriel, ou pire, d’un quelconque employé qui peut à tout moment couper l’alimentation au gaz41 ». Que l’industrie s’immisce dans les relations familiales paraît alors inacceptable.

Éclairage au gaz à l’honorable société de Lincoln’s Inn, Londres, 2008, Arpitt.

Mais ces controverses passées constitueraient un obstacle théorique et politique pour les auteurs, qui préfèrent vanter ce bon vieux temps du capitalisme à l’ancienne, vicieusement perverti par d’avides Big Tech : pour Durand, « le capitalisme industriel était un jeu à somme positive » (D50), car il s’agissait alors de produire des richesses matérielles le moins cher possible, donc potentiellement accessibles à tout le monde. On ne peut qu’inviter les auteurs à découvrir les travaux (en vérité bien trop nombreux pour être longuement cités ici) d’histoire de la colonisation42, du mouvement ouvrier43 ou de l’exploitation des femmes dans le commerce, l’industrie et l’administration44. Il faut à ce propos mentionner les études de flux matériel (material flow analysis), qui ont fait un sort définitif à ces visions classistes, sexistes, coloniales et eurocentrées, selon lesquelles l’industrialisation capitaliste aurait jadis in fine profité à tout le monde. Un collectif historien montre qu’entre 1830 et 2015, la France se comporte « comme un parasite », important massivement des matières premières pour alimenter son métabolisme industriel : sa consommation de ressources est multipliée par neuf sur la période45. Entre 1860 et 2010, l’Espagne passe de 58 à 570 millions de tonnes de consommation matérielle directe annuelle (soit de 2,8 à 11,6 tonnes par habitant)46.

Les études de flux matériel ont fait un sort définitif à ces visions classistes, sexistes, coloniales et eurocentrées, selon lesquelles l’industrialisation capitaliste aurait jadis in fine profité à tout le monde.

Cette croissance est progressive, mais s’accélère grandement dans la deuxième moitié du XXe siècle, quand le pays importe plus qu’il n’exporte de matières premières. La biomasse composait 98 % des ressources mobilisées sur la péninsule ibérique en 1860, une part qui se réduit à 16 % en 2010 – cette disparité provenant massivement de l’augmentation du recours aux ressources fossiles non renouvelables. Cette tendance est générale et concerne en premier lieu les États-Unis et l’Europe47 (bien que la Chine les dépasse aujourd’hui). Autrement dit, l’industrialisation implique, sur le long terme, l’intensification des circulations de matière à l’échelle du globe, au profit des populations dominantes48 : les pays les plus fortunés consomment en moyenne dix fois plus de ressources que les autres49. En 2022, la consommation énergétique est d’environ 36 000 kWh/hab./an en France, 194 000 au Qatar, 78 000 aux États-Unis, 7 100 en Inde, et 217 en Somalie50.

Lire aussi | « Au Congo, l’extractivisme détruit une économie fondée sur la relation »・David Maenda Kithoko, Gloria Menayame et Celia Izoard (2025)

Sans mettre en avant de tels éléments, il est ainsi plus simple pour Durand et Keucheyan de prétendre qu’« au cours des XIXe et XXe siècle, le progrès technique était volontiers perçu comme un facilitateur d’utopie ou de projets plus sérieux pour dépasser les dominations » (D96-97) et que « l’écologie s’inscrit dans la grande épopée du progrès » (DK75), alors même que l’idéologie du progrès a été épinglée à plusieurs reprises comme faisant précisément partie d’un discours lénifiant visant à faire taire les nombreuses contestations de l’industrialisation51. Un véritable culte dédié aux « héros de l’invention52 » se déploie au XIXe siècle et permet de naturaliser la fable progressiste en l’adossant aux grandes étapes censées avoir mené au monde tel qu’on le connaît. L’institutionnalisation de l’innovation-panacée arrimant cette grande fresque du progrès est le fruit de stratégies délibérées mises en œuvre par les protagonistes au cœur de la production industrielle, bénéficiaires des rapports de force qui s’y sont cristallisés53 : ingénieurs, managers, consultants et décideurs politiques ont fait de l’innovation une solution politique. Juges et parties très intéressés au développement d’un tel retournement, ces divers acteurs ont tenté de bâillonner les contestations qui les visaient en donnant à leurs intérêts l’apparence de la nécessité historique : le progrès.

Progrès. Les Escargots non sympathiques. Honoré Daumier, 1896.

S’il est bien évidemment souhaitable d’élaborer des trajectoires d’émancipation et d’amélioration des conditions de vie collectives, revendiquer naïvement le progrès comme évidence politique sans avoir aucune conscience de ces débats passés revient à rejouer, volontairement ou non, ces rapports de force et à se positionner linguistiquement et politiquement du côté de l’exploitation. Poursuivant ces analyses sociocentrées, les deux auteurs abordent la question des besoins, dont Keucheyan a fait son cheval de bataille. Pourtant conscients du fait que le capitalisme crée des besoins factices, leur liste préfigurant le « gouvernement par les besoins » égrène les différents articles du mode de vie urbain contemporain : « un réfrigérateur pour conserver [les aliments]. Une surface de 30 m² pour deux est un minimum, auquel s’ajoutent 10 m² par personne. Avoir accès à l’électricité : le logement doit être éclairé, disposer d’un système de chauffage et/ou de climatisation selon les régions […] Un téléphone par personne paraît indispensable aujourd’hui, mais un ordinateur et une télévision par foyer suffisent » (DK73).

Toutes les sociétés humaines, quels que soient leurs environnements et techniques disponibles, ont invariablement considéré que leur mode de vie était le bon. Vouloir universaliser le mode de vie industriel contemporain est ainsi doublement problématique : d’une part, cela revient à imposer une vision industrialiste et eurocentrée du « bon mode de vie », même si les auteurs s’en défendent en invoquant « l’apport de la délibération démocratique » (DK78) ; d’autre part, cela ne permet aucunement de garantir une trajectoire sociotechnique mettant réellement fin aux ravages du capitalisme industriel (ergoter sur le nombre d’écrans par foyer, des technologies que les auteurs entendent déployer « à l’échelle de l’espèce humaine » [DK75], ne risque pas d’infléchir grandement les courbes d’émission de gaz à effet de serre dans les prochaines années). En son point limite, un tel positionnement n’est finalement aucunement incompatible avec les propos de George Bush père, qui déclarait en 1992 au Sommet de la Terre de Rio que « le mode de vie américain n’est pas négociable ».

On imagine aisément les deux auteurs s’offusquer d’une telle association. Pourtant, force est de constater que leur propos est profondément accélérationniste : « le capitalisme n’assurera pas la transition énergétique de manière suffisamment rapide » (DK22). Reprenant à leur compte la notion de transition, véritable fiction historique faisant croire à l’existence de basculements entre régimes énergétiques au cours de l’industrialisation, Durand et Keucheyan refusent visiblement de percevoir l’œuvre idéologique derrière la notion. Alors que le pétrole a augmenté la consommation de charbon, que le nucléaire a accru l’extraction pétrolifère, que l’éolien a fait croître la consommation électrique, etc.54, le capitalisme œuvrerait dans le bon sens, bien que trop lentement. Durand et Keucheyan colportent à leur façon le mythe d’une énergie qui nous sauverait des déboires écologiques contemporains – un fantasme irréaliste qui fait fi des leçons de l’histoire : le pétrole est (au départ) aisé à extraire et ses rendements sont extrêmement élevés. Sa massification a pourtant eu pour conséquence l’augmentation du recours à toutes les autres sources d’énergie. Quand bien même de nouveaux modes d’extraction moins polluants verraient le jour, ils ne feraient qu’augmenter la consommation énergétique globale, et donc in fine la dégradation des écosystèmes : aucune énergie miracle ne nous sauvera. À l’heure actuelle, les multinationales de l’énergie sont d’ailleurs en train de se repositionner afin de pérenniser au mieux la croissance énergétique capitaliste, en s’arrimant sur la décarbonation (et ce qu’elle soit une réalité ou un pur alibi55).

Contre tous les travaux qui ont pu pointer l’accélération comme dynamique motrice de l’industrialisation, Durand et Keucheyan croient toujours que le problème vient de la lenteur du capitalisme, qu’il faudrait politiquement accélérer.

Mais pour Durand et Keucheyan, le problème reste celui des temporalités de l’innovation : la « restructuration [des économies réelles] est difficile : elle demande du temps pour permettre aux effets de l’innovation technologique de se diffuser ou à l’évolution des comportements de se déployer » (DK25). Contre tous les travaux qui ont pu pointer l’accélération comme dynamique motrice de l’industrialisation56, Durand et Keucheyan croient toujours que le problème vient de la lenteur du capitalisme, qu’il faudrait politiquement accélérer.

N’étant visiblement pas à une contradiction près, Durand cite l’historien David Noble, à propos de son livre séminal Forces of Production57 où il montrait que « l’enjeu, pour les directeurs d’usine, était principalement de réduire [par le recours aux machines – notamment à commande numérique] la souveraineté exercée par les travailleurs et les syndicats sur le processus de travail lui-même, ce qui revenait à déqualifier le travail pour moins en dépendre » (D68). Cette analyse pionnière de Noble est aujourd’hui bien documentée historiquement, et concerne l’ensemble du processus d’industrialisation58 : déposséder les travailleurs de l’exclusivité de leurs savoirs et savoir-faire – c’est-à-dire les rendre disponibles et appropriables par toute personne – permet la mainmise croissante du capital sur le travail. Sans y voir de contradiction (puisque le seul enjeu pour lui est d’établir la coordination des acteurs sur une autre base que le marché), Durand cite comme source d’inspiration, littéralement deux pages plus loin, l’ultralibéral Friedrich Hayek, qui défendait le fait que la « libre circulation des connaissances est l’élément décisif pour permettre le progrès de l’humanité » (D70).

Hier comme aujourd’hui, le problème n’est pas l’inconscience écologique, mais l’impuissance collective face aux inerties colossales engendrées par le déploiement de gigantesques systèmes techniques.

La palme de l’ignorance en matière d’histoire industrielle revient probablement à ce mépris celé des populations contemporaines des débuts de l’industrialisation, qui n’auraient pas compris que les infrastructures manufacturières pouvaient polluer. D’après Durand, notre situation est bien différente, puisqu’aujourd’hui « la destruction de la planète perdure, mais en connaissance de cause » (D99). Jadis, nul n’aurait envisagé que l’industrie puisse polluer, alors qu’aujourd’hui, nous sommes bien plus éclairés. En réalité, nos ancêtres n’étaient aucunement aveugles aux ravages de l’industrialisation, une naïveté qui paraît absurde dès qu’on prend le temps de lire la presse du XIXe siècle, qui décrit parfois très précisément le détail des destructions en cours59. Hier comme aujourd’hui, le problème n’est pas l’inconscience écologique, mais l’impuissance collective face aux inerties colossales engendrées par le déploiement de gigantesques systèmes techniques. Le problème n’est pas la connaissance, ni même peut-être la volonté d’agir, mais l’inadéquation de nos moyens d’action, rendus inopérants par la complexification technologique et administrative à laquelle participe d’ailleurs directement le déploiement numérique.

La constitutivité technique contre le décisionnisme

L’ensemble du propos de Durand et Keucheyan est infusé d’une métaphysique instrumentaliste, qui ne voit dans les techniques qu’un moyen pouvant être utilisé à diverses fins – la seule question devenant alors celle de la décision : que faire de ces merveilleuses techniques ? Alors que la philosophie, l’histoire et la sociologie des dernières décennies ont totalement invalidé cette mythologie de la neutralité de la technique, les deux auteurs ne voient dans les dispositifs industriels contemporains qu’un outil que l’on pourrait aisément plier à notre volonté politique : « Si nous le décidons, production et consommation peuvent […] être subordonnées à la reproduction des écosystèmes et à la préservation des grands équilibres de la biosphère » (DK141). Cette banalité résume tout leur propos, et témoigne du fait qu’ils n’ont au fond pas grand-chose d’autre à dire. Durand fait mine de s’interroger à ce propos : « un outil si puissant de connaissance et de contrôle utilisé dans le seul objectif de générer du profit ne pourrait-il pas être détourné à d’autres fins ? » (D97). Et les deux compères de se lamenter : « La raison principale de cet échec [des actions écologiques entreprises au cours du dernier demi-siècle] tient au caractère second de la question environnementale par rapport aux objectifs de croissance économique » (DK18). Écrire deux livres pour aboutir à l’idée que le problème environnemental contemporain se résumerait à une question de volonté politique paraît quelque peu dérisoire quand on connaît la littérature qui a tenté d’attaquer sérieusement ces questions, et dont nous n’offrons ici que quelques morceaux choisis.

Le sociologue François Dedieu montre ainsi, au sujet des pesticides, que c’est l’organisation globale des activités et professions rattachées à la bonne gestion des normes sanitaires qui interdit toute opposition réelle au déploiement des intrants produits par l’industrie chimique60. Les lobbies agroindustriels œuvrent bien sûr en coulisse pour semer le doute. Mais l’inaction généralisée face à ces composés dont la dangerosité est avérée depuis plus d’un demi-siècle n’est pas tant le fait d’une manipulation machiavélique que d’un déni collectif engendré par une production active d’ignorance favorisée par les protocoles officiels d’évaluation des risques et résultant in fine de la complexité des formes d’organisation contemporaine du travail, dissolvant toute responsabilité dans des chaînes de causalité trop distendues pour être efficaces. Le problème n’est pas la connaissance, mais l’impuissance.

Dans leur étude des toxicités planétaires, les historiennes Soraya Boudia et Nathalie Jas discutent de cette impuissance de la science contemporaine (leur ouvrage est surtitré Powerless Science) : « Le constat dressé dans ce livre est très sévère : si la science joue un rôle déterminant dans la définition et la mise en évidence des effets sanitaires et environnementaux dangereux, si elle a parfois fourni des ressources aux mouvements de défense et contribué à l’adoption de nouveaux systèmes de régulation plus protecteurs, elle a aussi largement participé à invisibiliser et à pérenniser des situations problématiques. Elle l’a fait en leur conférant le sceau de l’objectivité, en produisant et favorisant certains résultats au détriment d’autres et en donnant aux politiques adoptées une apparence de décision raisonnée alors qu’il s’agissait en fait d’un renoncement. Ainsi, la science contribue à l’élaboration de systèmes de régulation produisant et diffusant l’ignorance, rationalisant et légitimant des politiques publiques qui naturalisent les asymétries entre ceux qui sont affectés par les contaminations et ceux qui en bénéficient, que ce soit financièrement ou en termes de confort de vie61 ». La production scientifique participe à des processus de normalisation pérennisant ignorance et inégalités.

Investiguant ces processus de normalisation, le sociologue Léo Magnin explique quant à lui que les haies, massivement détruites en France lors de la modernisation agricole après 1945, sont désormais plébiscitées en tant que réservoirs de biodiversité, et ce alors même que leur nombre ne cesse de diminuer. À la croisée de multiples normes (techniques, environnementales, politiques, économiques, etc.), les haies sont la cible de feux croisés dont le niveau d’intrication n’est maîtrisé par personne, et qui aboutissent à perpétuer les destructions écologiques : « Si l’environnement n’a jamais été aussi présent en tant que motif de préoccupation, on ne décèle cependant aucun sens de l’histoire vers l’écologie62 ». Le souci ne vient pas d’une absence de conscience, ni même d’un manque de volonté, mais d’une incapacité à traduire ces prises de position en autre chose qu’une poursuite des trajectoires écocidaires contemporaines.

Interrogeant les effets directs des stratégies d’optimisation énergétique et technologique, les ingénieurs prospectivistes Christopher Magee et Tessaleno Devezas ont suivi l’effet rebond de cinquante-sept innovations depuis les années 193063 : dans chacun des cas étudiés, l’élasticité de la demande couplée à l’amélioration du taux de performance technique a abouti à une augmentation et non à une diminution des ressources matérielles utilisées. Plus on innove, améliore et réduit le coût (y compris écologique) d’une technologie, plus on impacte les écosystèmes ! En dernière instance, la maîtrise technoscientifique et la puissance technologique ne se convertissent jamais en relâchement de la pression sur les environnements. La complexification industrielle engendre l’impuissance politique, notamment environnementale.

Les dirigeants (Verwaltungsrat) de IG Farben vers 1935, avec à gauche au premier plan Carl Bosch et à droite Carl Duisberg. Crédits : Hermann Groeber 

Analyse pionnière des effets délétères de cette complexification technologique, l’article de l’historien Thomas P. Hughes publié en 1969 et consacré à la synthèse ammoniacale64 montre que la vision conspirationniste de l’histoire ne permet pas de comprendre les dynamiques qui présidaient à la stratégie du groupe IG Farbenindustrie (anciennement BASF) lors de la montée du nazisme en Allemagne. La Première Guerre mondiale avait conduit à produire un important complexe industriel de synthèse d’ammoniac, utilisé pour fabriquer des gaz de combat, devenu inutile lors du désarmement. Dans les années 1920, le groupe était ainsi détenteur d’infrastructures gigantesques proposant une solution à un problème qui n’existait plus : il fallait donc en trouver un nouveau, ce que les velléités expansionnistes hitlériennes allaient idéalement fournir. Les modifications des dispositifs à réaliser étaient minimes pour obtenir des usines produisant de l’essence synthétique, une industrie en parfaite adéquation avec les visées autarciques de l’armée du Reich. Archives à l’appui, Hughes montre que les charges retenues contre la firme lors du procès de Nuremberg partaient du principe naïf de l’agentivité absolue des êtres humains, sans tenir compte de l’immense inertie que peuvent constituer les infrastructures techniques. Tout immense ensemble technologique est à la fois dépositaire et instigateur d’une prescription sociale à part entière : le momentum est pour Hughes la force inertielle, la persistance ontologique et l’élan déployés par un macro-système technique. Cette inertie macro-systémique mêle des facteurs matériels (infrastructures usinières), techniques (formation des personnels), socioculturels (pédagogie, traditions et habitudes), juridiques (institutionnalisation dans le droit), politiques (inscription dans les partis et pratiques de gouvernement à l’échelle d’un État), etc. Le momentum apparaît alors comme la direction vers laquelle le monde humain est orienté par un ensemble multifactoriel de trajectoires organisées autour d’un système technique65, jouant parfois avec les aléas politiques66.

Tout immense ensemble technologique est à la fois dépositaire et instigateur d’une prescription sociale à part entière : un macro-système technique est porteur d’une force inertielle et d’un élan qui lui donne une certaine direction.

Dans leur ignorance totale des travaux consacrés à ces questions, la plus grande naïveté de Durand et Keucheyan consiste peut-être de continuer à penser que tout est affaire de volonté, et qu’il faut avant tout emporter la conviction afin que tout le monde se dresse face aux méchants pollueurs, alors que les structures techniques du monde préemptent très largement les choix possibles : si on désire conserver l’automobile, routes, autoroutes, constructeurs, extraction minière, énergies, firmes et conglomérats industriels viendront avec. En dehors des élites qui ont tout intérêt à rester aveugles aux trajectoires réellement engagées, de nombreuses personnes sont déjà convaincues que le mode de vie contemporain fondé sur l’exploitation industrielle du monde n’est pas nécessairement la panacée, ce qui ne change malheureusement pas grand-chose à la situation : le problème se situe très largement du côté des infrastructures matérielles de nos sociétés, et ce n’est pas une simple décision qui permettra de transformer data centers, télévisions, ordinateurs, automobiles, plats surgelés et bombes nucléaires en vecteurs d’émancipation du capitalisme industriel.

Durand et Keucheyan se disent défenseurs de la démocratie. Pourtant, leur proposition politique principale consiste à décider que le monde industriel contemporain soit mis au service de la justice sociale et de l’environnement. Les populations doivent-elles simplement se ranger « démocratiquement » à leur avis, car il en va de leur intérêt ? Forcément, peut-on croire en les lisant, puisqu’ils se disent tous deux « de gauche » donc bien intentionnés. Envisagent-ils plutôt un modèle politique davantage musclé, à l’instar des politiques chinoises qu’ils encensent, afin de pousser les masses à se ranger à leurs vues ? Peut-être, si l’on en juge par les éloges qu’ils adressent à plusieurs reprises à divers régimes autoritaires. Quelles que soient les réponses à ces questions, les perspectives politiques esquissées ne sont guère réjouissantes.

Comment faire pour sauver le monde ? Suivons les recommandations d’un économiste et d’un sociologue afin que l’ensemble des systèmes contemporains nous mène vers des cieux plus cléments. Car n’oublions pas qu’il y a le bon numérique et le mauvais numérique, le bon et le mauvais État, les bonnes et les mauvaises multinationales, le bon et le mauvais capitalisme industriel. Après avoir lu plus de quatre cents pages, on comprend enfin que Cédric Durand et Razmig Keucheyan pensent très fort qu’un autre monde est possible, à condition de ne rien changer ou presque, si ce ne sont les rênes du pouvoir qu’il faudrait confier à Cédric Durand et Razmig Keucheyan.


Photo d’ouverture : Yaroslavl, Russia. Crédits : Valeriy Kryukov

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Les références à Durand Cédric, Faut-il se passer du numérique pour sauver la planète ?, Paris : Amsterdam, 2025, sont notées par la lettre « D » suivie du numéro de page (ex : D66). Les renvois à Durand Cédric, Keucheyan Razmig, Comment bifurquer ? Les principes de la planification écologique, Paris : La Découverte, 2024, sont signalées par les lettres « DK » suivies du numéro de page (ex : DK123).
  2. Loubere Nicholas, Brehm Stefan, 2019, “The Global Age of Algorithm: Social Credit and the Financialisation of Governance in China”, in Franceschini Ivan et al. (dir.), Dog Days: Made in China Yearbook 2018, Canberra : ANU Press, p. 142-147 ; Hoffman Samantha, 2019, “Managing the State: Social Credit, Surveillance, and the Chinese Communist Party’s Plan for China”, in Wright Nicholas D. (dir.), Artificial Intelligence, China, Russia, and the Global Order, Air University Press, p. 48-54 ; Arsène Séverine, 2021, « Le système de crédit social en Chine : la discipline et la morale », Réseaux, n° 225, p. 55-86.
  3. Alexandre Olivier, Beuscart Jean-Samuel, Broca Sébastien, 2022, « Une sociohistoire des critiques numériques », Réseaux, n° 231(1), p. 9-37 ; Groupe Marcuse, 2013, La Liberté dans le coma. Essai sur l’identification électronique et les moyens de s’y opposer, Le Batz : La Lenteur ; Spitzer Manfred, 2019 (2012), Les Ravages des écrans. Les pathologies à l’ère numérique, Paris : L’échappée.
  4. Courland Robert, 2011, Concrete Planet : The Strange and Fascinating Story of the World’s Most Common Man-Made Material, Buffalo : Prometheus.
  5. Bordage Frédéric (dir.), 2021, Le numérique en Europe. Une approche des impacts environnementaux par l’analyse du cycle de vie, Bruxelles : The Greens/EFA, p. 9.
  6. Voir notamment le travail réalisé par l’association SystExt sur l’agrégation des métaux dans la construction d’un smartphone standard : https://www.systext.org/node/1724 (consulté le 20 novembre 2025).
  7. https://www.plymouth.ac.uk/news/scientists-use-a-blender-to-reveal-whats-in-our-smartphones (consulté le 20 novembre 2025).
  8. Izoard Célia, 2024, La Ruée minière au xxiesiècle. Enquête sur les métaux à l’ère de la transition, Paris : Seuil.
  9. Lécuyer Christophe, 2017, “From Clean Rooms to Dirty Water: Labor, Semiconductor Firms, and the Struggle over Pollution and Workplace Hazards in Silicon Valley”, Information & Culture, n° 52(3), p. 304-333.
  10. https://ecoinfo.cnrs.fr/2010/10/20/le-silicium-les-impacts-environnementaux-lies-a-la-production/ (consulté le 20 novembre 2025).
  11. https://www.geo.de/mitmachen/frage-des-tages/23786-quiz-frage-des-tages-1412021-die-herstellung-eines-mikrochips?utm_source=Newsletter&utm_medium=email&utm_campaign=frage-des-tages-newsletter (consulté le 20 novembre 2025).
  12. Morozov Evgeny, 2021, « Les semi-conducteurs au centre d’une bataille planétaire. Doit-on craindre une panne électronique ? », Le Monde diplomatique, n° 809, août 2021, p. 1, 12-13.
  13. https://www.csis.org/blogs/perspectives-innovation/geotech-wars-semiconductors-most-complex-device-history-syed-alam (consulté le 20 novembre 2025).
  14. Miller Chris, 2024 (2022), La Guerre des semi-conducteurs. L’enjeu stratégique mondial, Paris : L’artilleur.
  15. Feynman Richard P., 2008, “The Computing Machines in the Future”, Lecture Notes in Physics, n° 746, p. 99-113.
  16. Lebrun Fabien, 2024, Barbarie numérique. Une autre histoire du monde connecté, Paris : L’échappée.
  17. Voir l’enquête de Célia Izoard : « Un néo-colonialisme technologique : comment l’Europe encourage la prédation minière au Congo », Terrestres, 5 juillet 2025 : https://www.terrestres.org/2025/07/05/la-banalite-de-lempire-laccord-ue-rwanda/
  18. Greenstein Shane, 2020, “The Basic Economics of Internet Infrastructure”, Journal of Economic Perspectives, n° 34(2), p. 192-214.
  19. Ibid.
  20. Vaudano Maxime, 2013, « Les câbles sous-marins, clé de voûte de la cybersurveillance », Le Monde [https://www.lemonde.fr/technologies/article/2013/08/23/les-cables-sous-marins-cle-de-voute-de-la-cybersurveillance_3465101_651865.html].
  21. https://www.degrouptest.com/actualite/fibre-optique-l-etat-signe-un-accord-avec-orange-qui-s-engage-a-raccorder-1-5-millions-de-foyers-d-ici-2025 (consulté le 20 novembre 2025).
  22. Delaunay Michael, 2022, « Les enjeux stratégiques des câbles sous-marins de fibre optique dans l’Arctique » [https://geopoweb.fr/?LES-ENJEUX-STRATEGIQUES-DES-CABLES-SOUS-MARINS-DE-FIBRE-OPTIQUE-DANS-L-ARCTIQUE-278].
  23. https://www.greenit.fr/etude-empreinte-environnementale-du-numerique-mondial/ (consulté le 20 novembre 2025).
  24. Carnino Guillaume, Marquet Clément, 2018, « Les datacenters enfoncent le cloud : enjeux politiques et impacts environnementaux d’internet », Zilsel, n° 3, p. 19-62.
  25. https://www.sunbirddcim.com/infographic/top-10-energy-consuming-data-centers (consulté le 20 novembre 2025).
  26. Carnino Guillaume, Marquet Clément, 2022, « Cooling, quick fix et spaghetti cloud dans l’univers du datacenter. Changement d’échelle et industrialisation du numérique », Artefact. Techniques, histoire et sciences humaines, n° 17, p. 309-335.
  27. Carnino Guillaume, Marquet Clément, 2020, « Du mythe de l’automatisation au savoir-faire des petites mains : une histoire des datacenters par la panne », Artefact. Techniques, histoire et sciences humaines, n° 11, p. 161-188.
  28. Philippe Luce, cité p. 18 dans Pitron Guillaume, 2021, « Selfies, courriels, vidéos en ligne… Quand le numérique détruit la planète », Le Monde diplomatique, n° 811, octobre 2021, p. 1, 18-19.
  29. Ensmenger Nathan, 2021, “The Cloud is a Factory”, in Mullaney Thomas S., Peters Benjamin, Hicks Mar, Philip Kavita (dir.), Your Computer Is on Fire, Cambridge : MIT Press, p. 29-49.
  30. https://sustainability.google/reports/247-carbon-free-energy/ (consulté le 20 novembre 2025
  31. Association Événement OSE, 2020, La Place du numérique dans la transition énergétique, Paris : Presses des Mines.
  32. Lechelle Yann, 2022, « Consommation d’eau dans les datacenters : brisons l’omerta ! », Les Échos [https://www.lesechos.fr/idees-debats/cercle/opinion-consommation-deau-dans-les-datacenters-brisons-lomerta-1414461].
  33. https://www.youtube.com/watch?v=mtJnkuPpLZw&t=402s (consulté le 20 novembre 2025).
  34. Pécout Adrien, Pinaud Olivier, Piquard Alexandre, 2024, « Derrière l’IA, la déferlante des data centers », Le Monde, 15 juin 2024, p. 16-17, p. 16.
  35. Durand Cédric, 2020, Technoféodalisme. Critique de l’économie numérique, Paris : La Découverte.
  36. Blankenship Loyd, GURPS Cyberpunk. High-Tech Low-Life Roleplaying, Austin : Steve Jackson Games, p. 104.
  37. Headrick Daniel R., 1981, The Tools of Empire. Technology and European Imperialism in the Nineteenth Century, New York/Oxford : Oxford University Press.
  38. White Richard, 2011, Railroaded. The Transcontinentals and the Making of Modern America, New York : Norton.
  39. Mazzucato Mariana, 2020, L’État entrepreneur. Pour en finir avec l’opposition public-privé, Paris : Fayard
  40. Hughes Thomas P., 1983, Networks of Power. Electrification in Western Society, 1880-1930, Baltimore : Johns Hopkins University Press ; Lopez Fanny, 2014, Le Rêve d’une déconnexion, de la maison autonome à la cité auto-énergétique, Paris : La Villette.
  41. Bovet-Pavy Agnès, 2018, Lumières sur la ville. Une histoire de l’éclairage urbain, Paris : François Bourin/Arte, p. 92.
  42. Headrick, 1981, op. cit. ; Headrick Daniel R., 1988, The Tentacles of Progress. Technology Transfer in the Age of Imperialism, 1850-1940, New York/Oxford : Oxford University Press ; Headrick Daniel R., 2009, Technology: A World History, Oxford : Oxford University Press ; Boulat Régis, Heyberger Laurent (dir.), 2023, Industries coloniales en contexte impérial (fin xviiie-xxesiècle), Belfort : UTBM.
  43. Chatriot Alain, Chessel Marie-Emmanuelle, Hilton Matthew (dir.), 2005, Au nom du consommateur. Consommation et politique en Europe et aux États-Unis au xxesiècle, Paris : La Découverte ; Noiriel Gérard, 2019, Une histoire populaire de la France, de la guerre de Cent Ans à nos jours, Marseille : Agone ; Judet Pierre, 2020, Une histoire sociale de l’industrie en France. Du choléra à la grande crise (années 1830-années 1930), Grenoble : Presses universitaires de Grenoble.
  44. Perrot Michelle, 1983, « Femmes et machines au xixe siècle », Romantisme, n° 13(41), p. 5-17 ; Schwartz Cowan Ruth, 1983, More Work for Mother: the Ironies of Household Technology from the Open Hearth to the Microwave, New York : Basic Books ; Gardey Delphine, 2001, La dactylographe et l’expéditionnaire. Histoire des employés de bureau (1890-1930), Paris : Belin ; Gardey Delphine, 2008, Écrire, calculer, classer. Comment une révolution de papier a transformé les sociétés contemporaines (1800-1940), Paris : La Découverte.
  45. Magalhães Nelo, Fressoz Jean-Baptiste, Jarrige François, Le Roux Thomas, Levillain Gaëtan, Lyautey Margot, Noblet Guillaume, Bonneuil Christophe, 2019, “The Physical Economy of France (1830-2015). The History of a Parasite?”, Ecological Economics, n° 157, p. 291-300.
  46. Infante-Amate Juan, Soto David, Aguilera Eduardo, García-Ruiz Roberto, Guzmán Gloria, Cid Antonio, González de Molina Manuel, 2015, “The Spanish Transition to Industrial Metabolism: Long-Term Material Flow Analysis (1860-2010)”, Journal of Industrial Ecology, n° 19(5), p. 866-876.
  47. Mathews Emily et al., 2000, The Weight of Nations. Material Outflows from Industrial Economies, Washington, D.C. : World Resources Institute.
  48. Suh Sangwon (dir.), 2008, Handbook of Input-Output Economics in Industrial Ecology, Dordrecht/Heidelberg/Londres/New York : Springer.
  49. Unep, 2016, Global Material Flows and Resource Productivity. An Assessment Study of the UNEP International Resource Panel (H. Schandl, M. Fischer-Kowalski, J. West, S. Giljum, M. Dittrich, N. Eisenmenger, A. Geschke, M. Lieber, H. P. Wieland, A. Schaffartzik, F. Krausmann, S. Gierlinger, K. Hosking, M. Lenzen, H. Tanikawa, A. Miatto, T. Fishman), Paris : United Nations Environment Programme.
  50. https://ourworldindata.org/grapher/per-capita-energy-use?tab=table (consulté le 20 novembre 2025).
  51. Jarrige François, 2014, Technocritiques. Du refus des machines à la contestation des technosciences, Paris : La Découverte ; Jarrige François, Le Roux Thomas, 2017, La Contamination du monde. Une histoire des pollutions à l’âge industriel, Paris : Seuil.
  52. MacLeod Christine, 2007, Heroes of invention. Technology, liberalism and British identity, 1750-1914, New York : Cambridge University Press.
  53. Godin Benoît, 2020, The Idea of Technological Innovation. A Brief Alternative History, Cheltenham : Edward Elgar.
  54. Debeir Jean-Claude, Déléage Jean-Paul, Hémery Daniel, 2013, Une histoire de l’énergie, Paris : Flammarion ; Fressoz Jean-Baptiste, 2024, Sans transition. Une nouvelle histoire de l’énergie, Paris : Seuil.
  55. Daniélou Jean, 2024, Sortir du monde fossile. Les mutations d’une multinationale de l’énergie, Paris : Presses des Mines.
  56. Rosa Hartmut, 2010, Accélération. Une critique sociale du temps, Paris : La Découverte ; Deléage Estelle, Sabin Guillaume, 2014, « Peut-on résister à l’ère du temps accéléré ? », Écologie & Politique, n° 48(1), p. 13-21, Jarrige François, 2014, « Pris dans l’engrenage ? Les mondes du travail face à l’accélération au XIXe siècle », Écologie & Politique, n° 48(1), p. 23-35.
  57. Noble David, 1984, Forces of production. A social history of industrial automation, New York : Knopf.
  58. Jarrige François, 2009, Au temps des « tueuses de bras ». Les bris de machines à l’aube de l’ère industrielle (1780-1860), Rennes : PUR ; Carnino Guillaume, 2015, L’Invention de la science. La nouvelle religion de l’âge industriel, Paris : Seuil ; Beckmann Johann, Mertens Joost (trad.), Carnino Guillaume (dir.), Hilaire-Pérez Liliane (dir.), Hoock Jochen (dir.), 2017 (1806), Projet de technologie générale. Johann Beckmann et l’histoire de la technologie [titre original : Entwurf der algemeinen Technologie], Rennes : Presses universitaires de Rennes ; Fischer Daniel, 2023, Philippe Frédéric de Dietrich. Un entrepreneur des savoirs au xviiie siècle, Paris : Presses des Mines.
  59. Le Roux Thomas, 2011, Le Laboratoire des pollutions industrielles. Paris, 1770-1830, Paris : Albin Michel ; Fressoz Jean-Baptiste, 2012, L’Apocalypse joyeuse. Une histoire du risque technologique, Paris : Seuil ; Jarrige, Le Roux, 2017, op. cit.
  60. Dedieu François, 2022, Pesticides. Le confort de l’ignorance, Paris : Seuil.
  61. Boudia Soraya, Jas Nathalie (dir.), 2014, Powerless Science? Science and Politics in a Toxic World, New York : Berghahn Books, p. 23-24 (traduction personnelle) : « The conclusion reached in this book is very dire: while science plays a determining role in defining dangerous health and environmental effects and making them visible, and while it has sometimes provided resources for advocacy movements and contributed to the adoption of new regulatory systems offering greater protection, it has also largely contributed to developing situations of invisibilization and accommodation. It has done so by conferring upon these the seal of objectivity, by producing and putting forward certain results at the expense of others and by giving the policies adopted the air of choice when in fact renouncement was primarily at stake. As result, science contributes to the development of regulatory systems producing and spreading ignorance and scientizing and legitimizing public policies that naturalized the asymmetries between those affected by the contaminations and those benefiting from them—whether financially or in terms of comfort of living. »
  62. Magnin Léo, La Vie sociale des haies. Enquête sur l’écologisation des mœurs, Paris: La Découverte, p. 188-189.
  63. Magee Christopher L., Devezas Tessaleno C., 2017, “A simple extension of dematerialization theory: Incorporation of technical progress and the rebound effect”, Technological Forecasting and Social Change, n° 117, p. 196-205.
  64. Hughes Thomas P., 1969, “Technological momentum in history: hydrogenation in Germany, 1898-1933”, Past and Present, n° 44, p. 106-132.
  65. Thomas Frank, 1988, “The Politics of Growth: the German Telephone System”, in Mayntz Renate (dir.), The Development of Large Technological Systems, Francfort-sur-le-Main/Boulder : Campus Verlag/Westview Press, p. 179-213.
  66. Galambos Louis, 1988, “Looking for the Boundaries of Technological Determinism: a Brief History of the U.S. Telephone System”, in Mayntz Renate (dir.), The Development of Large Technological Systems, Francfort-sur-le-Main/Boulder : Campus Verlag/Westview Press, p. 135-153.

L’article Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche est apparu en premier sur Terrestres.

PDF

06.02.2026 à 12:53

Made in ruines : en finir avec l’hégémonie du béton

Dolorès Bertrais

Dans son livre “Désarmer le béton, ré-habiter la terre”, l’architecte et militante Léa Hobson règle son compte à la plus massive des armes de construction du capitalisme et appelle à se défaire de son emprise. Pas le choix : tôt ou tard, le béton armé qui structure nos sociétés terminera en gravats – autant le remplacer ! Compte-rendu de lecture.

L’article Made in ruines : en finir avec l’hégémonie du béton est apparu en premier sur Terrestres.

Texte intégral (9016 mots)
Temps de lecture : 20 minutes

À propos du livre de Léa Hobson, Désarmer le béton, ré-habiter la terre, publié aux éditions La Découverte en 2025, dans la collection « Zones ».


Avec Désarmer le béton, ré-habiter la terre, Léa Hobson, architecte, scénographe et militante écologiste, s’inscrit dans une génération de praticien.ne.s et chercheur.e.s qui refusent de considérer les matériaux de construction comme de simples données techniques. Son travail se situe au croisement de l’enquête matérielle, de la critique politique et de l’engagement militant. Autrice du chapitre « Béton » dans On ne dissout pas un soulèvement : 40 voix pour les Soulèvements de la Terre (Seuil, 2023), elle est également co-autrice, au sein du collectif forty five degrees, de Radical Rituals (2024), une enquête itinérante menée à l’échelle européenne sur les pratiques spatiales vernaculaires, les rituels contemporains et les formes de réinvention des communs face aux crises écologiques et sociales. Ces ancrages constituent le socle politique, méthodologique et épistémologique de son livre Désarmer le béton, ré-habiter la terre.

Dès les premières pages de l’ouvrage (pp. 7–14), Léa Hobson pose un diagnostic sans détour, montrant que le béton a profondément transformé les manières de construire, d’habiter et de gouverner l’espace. Elle opère ainsi un déplacement fondamental : le béton n’est pas seulement un matériau problématique, il est un symptôme. Symptôme d’un régime de croissance (minérale) fondé sur l’accumulation, la standardisation, l’effacement ou encore la ruine. Le béton devient un analyseur privilégié des rapports de pouvoir contemporains. Autrement dit, en observant attentivement le béton depuis ses conditions de production et d’extraction, ses usages quotidiens, ses dispositifs normatifs, jusqu’à ses circulations à différentes échelles, se donnent à voir les alliances structurelles entre économie, politiques publiques, normes techniques et imaginaires professionnels. Ces coalitions ont progressivement stabilisé un régime de construction fondé sur l’irréversibilité, produisant un monde bâti et des édifices qui, comme le précise l’auteure, « ne se démontent plus, peu durables et qui finissent en décharge ou sont enfouies » (p. 11), et dans lesquels le pouvoir s’inscrit durablement dans la matière.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Cette incapacité à défaire rejoint ce qu’elle nomme le « gaspillage immobilier » massif (p. 11) : bâtiments vacants, friches inutilisées, logements inoccupés, alors même que l’on continue de construire. Le paradoxe est central dans l’ouvrage : l’industrie du béton prospère sur une pénurie qu’elle contribue elle-même à fabriquer. La logique d’« obsolescence programmée1 » du bâti alimente ce qu’elle qualifie de « civilisation de gravats » (p. 12), où la ruine n’est plus l’exception mais la condition ordinaire de la production spatiale contemporaine.

L’introduction annonce également un autre geste, plus discret mais structurant : faire place aux femmes, à la fois dans le récit et dans la critique. Léa Hobson signale dès ces premières pages la nécessité de réinscrire les femmes, travailleuses, architectes, théoriciennes, militantes, dans l’histoire de la construction et de l’architecture, une histoire largement « écrite au masculin » (p. 12). Cette attention, au-delà d’être réparatrice, ouvre la voie à une lecture féministe et matérialiste du bâti, qui traverse l’ouvrage jusqu’à la notion de « patriarcat bétonné » (p. 155) développée dans le dernier chapitre.

La logique d’obsolescence programmée du bâti alimente une « civilisation de gravats » où la ruine n’est plus l’exception mais la condition ordinaire de la production spatiale contemporaine.

Sur le plan de la structure, l’auteure explicite clairement son projet. Désarmer le béton, ré-habiter la terre, s’organise en trois grands mouvements, qui correspondent autant à des étapes analytiques qu’à des prises de position politiques. Il s’agit d’abord de suivre la filière béton dans toute sa matérialité, depuis l’extraction jusqu’aux ruines, afin de rendre visibles les chaînes de dépendance et les paysages et corps sacrifiés. Il s’agit ensuite d’interroger les politiques publiques et les dispositifs normatifs qui ont rendu ce matériau hégémonique, en montrant comment la norme bétonnée s’est imposée comme une évidence. Enfin, l’ouvrage se tourne vers le démantèlement, démontrant qu’il n’est pas qu’une simple substitution technique, mais une remise en cause de l’acte même de bâtir, de ses finalités, de ses cadres professionnels et de ses alliances possibles. En ce sens, le geste de Léa Hobson entreprend de désassembler les couches successives matérielles, normatives, institutionnelles qui ont rendu le béton à la fois omniprésent et invisible pour faire de « l’“habiter” une cause commune » (p. 12). À ce titre, Désarmer le béton, ré-habiter la terre, est un ouvrage dont de nombreuses mains devraient s’emparer : celles des cimentiers et des industriels, bien sûr, mais aussi celles des responsables politiques, des architectes, ingénieur.e.s, urbanistes et autres praticien.ne.s de la production de l’espace, tout autant que celles des étudiant.e.s, des citoyen.ne.s, militant.e.s ou non. Car le livre ne se contente pas de documenter un système : il invite explicitement à en sortir.

Photo de Fons Heijnsbroek sur Unsplash.

Le béton comme violence lente : sols, ruines et territoires sacrifiés

Le premier chapitre, Du sable à la ruine, permet aux lecteur.ice.s d’« entrer en matières », ces matières qui constituent les sols et qui nous (sup)portent, à la fois organiques et minérales. En préférant une entrée résolument infra-ordinaire par les sols et via les vers de terre, l’auteure opère un choix qui n’a rien d’anecdotique – alors que les lombrics pourraient sembler éloignés de la filière béton. Pourtant, leur disparition généralisée depuis les années 1950 (p. 15) éclaire l’arrière-plan écologique sur lequel repose toute l’industrie cimentière. Le ver de terre devient l’indice de sols vivants en perdition, une situation aggravée par l’artificialisation systématique opérée par l’industrie du béton. L’auteure rappelle qu’entre 1960 et aujourd’hui, en France métropolitaine, près de « 17 milliards de m² de sols ont été scellés » (p. 17), sans justification démographique. L’urbanisation, l’expansion des réseaux (routiers, ferroviaires, etc.), la logistique et la spéculation foncière ne progressent pas au rythme de la croissance des populations, mais selon une logique autonome d’accumulation de surfaces artificialisées.

Ces surfaces génèrent leurs propres catastrophes : les inondations, désormais exacerbées par l’imperméabilisation ; les îlots de chaleur, qui transforment les espaces urbains en fournaises estivales ; et l’effondrement de la biodiversité, conséquence directe de la disparition des habitats vivants. « Quand le béton ne nous noie pas, il nous fait frire » (p. 19) résume en quelques mots la brutalité ordinaire d’un modèle de production de l’espace et d’une urbanisation hors sol. Dans cette perspective, les politiques publiques se révèlent largement inefficaces face aux dynamiques qu’elles prétendent réguler. L’auteure met par exemple en évidence les limites structurelles de la loi ZAN (Zéro Artificialisation Nette), régulièrement ajustée au fil des négociations politiques, et qui peine à enrayer les logiques de bétonisation. En cause, le principe même d’« artificialisation nette », qui autorise la poursuite de l’artificialisation dès lors qu’elle est compensée ailleurs (p. 21). Cette logique comptable de l’espace ouvre la voie à toute une série de requalifications administratives révélatrices. Ainsi, des espaces aussi radicalement transformés que les carrières peuvent être assimilés, dans les nomenclatures statistiques, à des « surfaces naturelles dont les sols sont nus ou recouverts en permanence d’eau, de neige ou de glace » (p.22), au même titre que les glaciers…

Le même raisonnement prévaut lorsque les déblais et déchets inertes issus du BTP sont utilisés pour combler carrières et gravières : ces sols recomposés, bien que profondément artificiels, échappent pourtant à la catégorie de l’artificialisation. Ces ajustements techniques, souligne l’auteure, permettent à la fois d’intégrer l’ouverture ou l’extension de carrières dans les mécanismes de compensation et de poursuivre, dans le même mouvement, la mise en exploitation de nouvelles terres agricoles pour accéder à des gisements supplémentaires (ibid.). Face à la destruction des sols fertiles, certains acteur.ice.s vantent les « technosols », les « anthroposols construits » (p. 23), soit des projets de géo-ingénierie censés compenser la perte du vivant. Ces savant.e.s ont oublié l’essentiel : le sol n’est pas une ressource renouvelable et la renaturation, quand elle devient un moyen de légitimer l’extraction, n’est qu’une nouvelle forme de déni (politique).

Lire aussi | Le béton, matériau extraterrestre・François Jarrige (2024)

À partir de là, l’auteure entreprend de suivre la filière béton dans toute sa matérialité : les sablières, les gravières, les carrières, les cimenteries, les centrales à béton, puis les décharges et ruines où se déposent les déchets du cycle minéral. La filière (béton) laisse de nombreuses traces sur son passage (p. 25) : traces matérielles, environnementales mais aussi psychologiques (p. 67). Elle reconfigure des vies humaines et autres qu’humaines, déplace, creuse, dynamite. L’après-1945 marque un moment de bascule : explosion de l’extraction, multiplication des concessions sur fonds marins et fluviaux, et mise en place de schémas départementaux fondés sur une rationalité technocratique qui rend les territoires lisibles, mesurables et exploitables à distance. Cette vision abstraite et surplombante, qui réduit les milieux à des stocks et efface les usages et savoirs locaux, s’inscrit pleinement dans ce que le politologue et anthropologue James C. Scott analysait à travers l’« œil de l’État » : un mode de gouvernement qui simplifie le réel pour mieux l’administrer (Scott 1998).

En moins de deux siècles, une innovation chimique et technique, le ciment, puis le béton armé, s’est muée en infrastructure politique, en ordre socio-économique, en matrice spatiale.

Mais Désarmer le béton, ré-habiter la terre ne se contente pas d’analyser la machine industrielle, il documente également les nombreuses résistances.

Il donne à voir une constellation de mobilisations : des organisations militantes locales telles que Peuples des Dunes en Bretagne (p. 43) ou l’association Gandalf en Normandie (p. 51) aux côtés de mouvements plus largement structurés, tels qu’Extinction Rebellion et la campagne « Fin de chantiers » lancée en 2019 (p. 63), ou d’autres actions relayées par Youth for Climate et Extinction Rebellion (p. 65). Loin de constituer une juxtaposition d’initiatives disparates, ces luttes politiques révèlent une même dynamique puisqu’elles rendent visibles les chaînes extractives du béton, des sites planifiés ou existants, d’où la matière est prélevée, jusqu’aux usines de béton prêt à l’emploi. Ces collectifs agissent précisément là où l’extractivisme opère et transforment ces espaces en lieux repolitisés. En s’attaquant aux cimentiers et aux grands groupes du BTP, ils contestent des projets ponctuels et surtout un régime matériel et institutionnel plus large. L’enjeu réside dans la production de contre-savoirs, de récits alternatifs et de nouvelles alliances entre milieux, habitant.e.s et militant.e.s.

Les Soulèvements de la terre, 2023.

Normes, industries et captations foncières

Dans le second chapitre, La norme bétonnée, au-delà du matériau, Léa Hobson montre comment, en moins de deux siècles, une innovation chimique et technique, le ciment, puis le béton armé, s’est muée en infrastructure politique, en ordre socio-économique, en matrice spatiale. À travers une généalogie minutieuse, elle rappelle que les noms devenus familiers de l’ingénierie : Vicat, Hennebique, Pavin de Lafarge (p. 80) renvoient aux origines mêmes des entreprises capitalistes qui ont bâti leur fortune sur la détention de brevets offrant l’exclusivité commerciale de formules et de procédés constructifs. La chimie innovante épouse alors l’esprit d’entreprise ; elle s’en mêle au point de devenir indissociable de l’industrialisation française qui est elle-même alimentée par la production de l’espace et son expansion. Le maillage se déploie rapidement dans presque tous les secteurs de puissance : « la construction, les autoroutes, les aéroports, l’énergie, les concessions, les télécommunications, puis la promotion immobilière » (p. 81). Dès les années 1950, les lobbies du secteur de la construction via la Fédération Française du Bâtiment (FFB), et la Fédération Nationale des Travaux Publics (FNTP), s’allient efficacement pour finalement adopter en 2017 l’appellation unificatrice de « Filière béton » (ibid.).

L’État, loin de constituer un contre-pouvoir, devient souvent le premier client de l’industrie du béton.

Cette structuration progressive du secteur ne se limite pas à une coordination économique, mais prépare et consolide un rapport privilégié à la puissance publique. L’État, loin de constituer un contre-pouvoir, en devient souvent le premier client : via les infrastructures de transport, les équipements publics, les logements sociaux, les grands projets urbains reposent massivement sur le béton, renforçant une dépendance structurelle aux grands groupes du BTP. Les liens entre le BTP et la sphère politique sont anciens. En 1972, l’affaire dite Aranda, caractérisée par des scandales politico-financiers, des pratiques de corruption et de trafic d’influence, connaît une visibilité nationale à travers des « permis autorisés sur des zones inondables ou non constructibles, appels d’offres biaisés et terrains monnayés » (p. 90). Cet épisode, sans être entièrement assimilable à des controverses plus récentes – l’A69 par exemple – révèle toutefois une continuité : dans un régime où les infrastructures deviennent autant de vecteurs de pouvoir, la production de l’espace est régulièrement façonnée par des alliances opaques entre intérêts privés et décisions publiques. La loi de 1995 interdisant le financement des partis politiques sous forme de dons par les grands groupes n’a pas pour autant fait disparaître les arrangements, d’autant que l’État dépend massivement du BTP puisque 70 % des marchés publics concernent les travaux publics, et 20 % le bâtiment (p. 91). Les grandes entreprises du béton, intégrées verticalement, du cimentier au promoteur, en passant par les négociants et les aménageurs, maintiennent un contrôle systémique, renforcé par la proximité sociale entre dirigeants et responsables politiques, formés dans les mêmes grandes écoles publiques (p. 93). L’enchevêtrement des parcours fait système.

Par ailleurs, dans la méga-machine béton, la France occupe une place disproportionnée tant elle coule son béton sur tous les continents. Septième puissance économique mondiale, elle est surtout le deuxième producteur de béton prêt à l’emploi nous rappelle l’auteure (p. 89). Ce secteur continue de perpétuer un « certain impérialisme industriel » (p. 95), alors que la deuxième plus grande cimenterie du monde, située à Settat, au Maroc, appartient à (Lafarge)Holcim. Ici apparaît la dimension coloniale d’un secteur qui continue de puiser et d’épuiser ses anciennes colonies pour entretenir le cœur industriel. Car un siècle après les créations de filiales Lafarge (années 1920 et 1930) : « Nord-Africaine de Ciments Lafarge » en Algérie, « Société indochinoise de fondu Lafarge », « Chaux et Ciments du Maroc », « Société tunisienne Lafarge »2, les procédés coloniaux continuent d’opérer. Ce bétonnage global nécessite d’autres territoires-pièces, mangés à la périphérie pour alimenter la croissance minérale d’un centre toujours plus exigeant.

Un chantier en Tunisie. Wikimedia.

Revenir sur la généalogie des grands cimentiers et de leurs filiales, c’est aussi comprendre que les filières changent de nom, se recomposent, déplacent leurs responsabilités, mais que les mêmes logiques persistent (p. 99). Les scandales se succèdent – comme ceux liés aux chantiers de Vinci Constructions Grand Projets (VCGP) au Qatar, pour lesquels le groupe a été mis en examen en 2025 pour travail forcé – les « fusibles » sautent, à l’image d’Éric Olsen, PDG de LafargeHolcim contraint à la démission en 2017 après une enquête interne sur des soupçons de financement de l’État islamique en Syrie. Pourtant, les grands groupes s’en sortent grâce à des bataillons d’avocats, des aides publiques européennes ou nationales, et une capacité à maintenir l’édifice. L’excellent article de Léon Baca « Accusé Lafarge : on n’oublie pas », qui retrace près de deux siècles d’épopée Lafarge2, fait écho à la pensée de l’auteure. Alors que le procès du cimentier s’est ouvert le mardi 4 novembre 2025 devant le tribunal, pour versements d’argent à des groupes armés en connaissance de cause, dont l’État islamique responsable des attentats du 13 novembre 2015 à Paris, afin de maintenir l’activité d’une cimenterie en Syrie, Léon Baca décrypte : « Aujourd’hui Lafarge n’est plus – il fallait sans doute symboliquement se faire oublier après la lune de miel daeshienne, et LafargeHolcim (2014) est devenue Holcim (2021). La firme [Lafarge] a donc été tour à tour royaliste, réactionnaire, ultra-catholique, paternaliste, colonialiste, collaborationniste, djihadiste [en revenant sur presque deux siècles d’activités] ». Nous pourrions y ajouter le témoignage poignant de Gaëlle (une survivante du Bataclan) lors de ce procès, relayé par Médiapart le 10 décembre 2025 : « Peut-on, au nom d’un intérêt économique, financer directement ou indirectement une organisation terroriste, en sachant, ou en choisissant d’ignorer, que cette organisation tue, torture, asservit et détruit. La réponse est non. Le droit le dit. La morale le dit. L’Histoire le dit. »3 La décision de justice sera rendue le 13 avril 2026… Lafarge, LafargeHolcim (2014), Holcim (2021), note à nous-mêmes : ne jamais oublier !

Lire aussi | Accusé Lafarge : on n’oublie pas・Léon Baca (2025)

Le chapitre du livre de Léa Hobson se déplace ensuite vers les métropoles et leurs périphéries, où ne règnent pas seulement la consommation accélérée des sols et la captation des terres arables mais aussi la reconfiguration en profondeur de l’acte de bâtir. La standardisation du béton, notamment à travers les dispositifs normatifs produits par le Centre scientifique et technique du bâtiment (CSTB), constitue une étape décisive de cette double domination, territoriale et sociale. La norme, ici, n’est pas un simple outil technique : elle fixe un horizon du possible, verrouille les alternatives matérielles et façonne les gestes professionnels. Après 1945, bâtir en pierre devient progressivement marginal ; la norme dite “B10.001”, en définissant la gélivité (sensibilité au gel) des pierres, contribue à disqualifier durablement leur usage (p. 107). Ce basculement s’accompagne d’une profonde dépossession du rapport à la matière. On ne taille plus la pierre : on coule du béton. Cette dépossession, à la fois matérielle et symbolique, efface le travail derrière le produit fini, masque les conditions de production du bâti et naturalise un régime constructif présenté comme inéluctable. Les savoir-faire se trouvent réduits à des procédures standardisées, les corps relégués à de simples fonctions d’exécution, tandis que la machine industrielle supplante l’intelligence du geste. Si le béton semble s’affranchir de la « main » (p. 85), cette fiction d’un matériau autonome, coulé comme une évidence technique, se heurte à la réalité des corps qui le produisent. Car le béton abîme et tue : lésions cutanées, « gale du ciment », pathologies liées à la poussière de silice (classée cancérogène), rappellent combien cette industrie repose sur une exploitation ancienne, discrète et persistante. La faiblesse de la réglementation française en matière de protection des travailleur.se.s révèle cette asymétrie fondamentale, car derrière l’apparente neutralité du matériau se dissimule la violence d’une chaîne productive largement invisibilisée. Cette dimension se donne à voir avec une acuité particulière dans les géographies sociales de l’exploitation. Les travailleur.se.s du BTP, souvent issu.e.s de l’immigration, occupent des positions structurellement vulnérables au sein d’un secteur où les capacités de mobilisation collective se sont dégradées.

La standardisation du béton constitue une étape décisive d’une double domination, territoriale et sociale.

Cette vulnérabilité structurelle s’inscrit également dans un rapport de forces plus large, où les asymétries sociales se prolongent dans les arènes normatives et discursives. Les batailles de normes qui opposent bétonneurs et défenseurs des matériaux naturels sont aussi des batailles sociales ; et, là encore, l’industrie l’emporte le plus souvent. Cette hégémonie normative se double d’une remarquable capacité d’adaptation discursive. Bétons dits « verts », « bas carbone » (p. 115), labels environnementaux et certifications durables prolifèrent, tandis que des fondations industrielles, comme la fondation (Lafarge)Holcim finançant une chaire de « construction durable » à l’ETH Zurich (Eidgenössische Technische Hochschule en allemand ou « École polytechnique fédérale » (EPF) en français) (p. 113), contribuent à redéfinir les termes légitimes du débat. Le greenwashing devient une stratégie structurelle où il s’agit de transformer marginalement le produit tout en préservant intact le système qui le rend nécessaire.

Des ouvriers à Nuremberg en Allemagne. Wikimedia.

La crise du logement offre un terrain supplémentaire pour observer l’hégémonie bétonnée. Léa Hobson rappelle que les politiques publiques, via les dispositifs fiscaux et les règles de construction, ont alimenté une spéculation immobilière déconnectée des besoins réels : 850 dérogations ont par exemple permis de reclasser des communes entières (p. 124), renforçant l’attractivité fictive et les rentes foncières. La pénurie supposée de logements ne résiste pas à la statistique : 18 % des logements ne sont pas occupés en permanence, parmi lesquels 3 millions de logements sont vacants. Une minorité de 24 % des ménages détient les deux tiers du parc, signe d’inégalités structurelles (p. 127). La construction neuve l’emporte, tandis que la rénovation reste sous-financée. Quant au binôme démolition-reconstruction, qui entretient une obsolescence programmée du bâti souvent justifiée au nom de la rénovation urbaine, de la performance énergétique ou de la modernisation, il permet en réalité de relancer en continu le flux minéral. Détruire pour reconstruire en est l’un des rouages.

Face à ce constat, des alternatives émergent. Des initiatives citoyennes comme House Europe (p. 129) proposent de limiter les démolitions et constructions neuves, afin de favoriser la réparation et de redonner une valeur d’usage et de sens au bâti existant au-delà des actifs financiers qu’ils représentent pour certain.e.s. À l’inverse, la rénovation urbaine institutionnelle, dont l’Agence nationale pour la rénovation urbaine (ANRU) constitue une figure centrale, est analysée par l’auteure comme une réponse largement illusoire aux inégalités urbaines (pp. 132-135). Les opérations qu’elle promeut, fréquemment fondées sur des logiques de démolition-reconstruction, produisent des effets sociaux particulièrement violents. Elles effacent non seulement des bâtiments, mais aussi des mémoires sociales, des usages et des formes d’attachement au lieu. En s’appuyant sur la pensée d’Henri Lefebvre (p. 139 et 140), l’auteure, comme de nombreu.ses.x autres avant elle, rappelle que le béton agit ici comme un opérateur d’inégalités socio-spatiales, en figeant les rapports de pouvoir dans la matière, en stabilisant des formes d’exclusion durable, et en rendant toute transformation ultérieure coûteuse, techniquement et politiquement. Le béton est une infrastructure de pouvoir, indissociable des régimes normatifs, économiques et institutionnels qui organisent la production de l’espace au sens lefebvrien.

Lire aussi | Araser, creuser, terrasser : comment le béton façonne le monde・Nelo Magalhães (2024)

Désarmer : luttes, décroissance et réinvention du bâtir

C’est précisément contre la naturalisation du béton, analysée dans les chapitres précédents, que le dernier mouvement de Désarmer le béton, ré-habiter la terre affirme un projet explicite de désarmement. Le terme n’est ni métaphorique ni consensuel. Emprunté aux luttes pacifistes et écologistes, il engage une rupture nette avec les registres technocratiques de l’« amélioration » ou de l’« optimisation ». Pour l’auteure, certaines infrastructures sont trop destructrices pour être simplement corrigées à la marge, et le béton, tel qu’il est produit, normé et mobilisé aujourd’hui, relève de cette catégorie (pp. 141–148).

Cette perspective permet à Léa Hobson d’articuler étroitement les luttes locales contre l’extraction à une critique systémique de la production de l’espace. Les mobilisations rurales contre les carrières, les gravières ou les cimenteries, souvent reléguées aux marges du débat urbain, apparaissent ici comme des foyers d’élaboration politique majeurs (pp. 148–155). L’auteure montre que ces luttes accumulent des savoirs situés tels que les connaissances juridiques, les expertises environnementales, les pratiques de coalition ou encore les récits alternatifs du territoire. Elles constituent ainsi des laboratoires d’un autre rapport au sol, au bâti et au temps long. Elles permettent surtout de faire réémerger les questions centrales autour de l’habiter telles que : comment construire sans s’imposer ? Comment habiter sans déposséder ? (p. 152). Ces interrogations prennent une épaisseur particulière lorsque l’enquête s’ouvre aux présences plus-qu’humaines qui peuplent ces territoires en lutte, dont la chauve-souris, la genette, le hibou grand-duc, ou encore la linotte mélodieuse. Cette co-présence signale que la conflictualité engage des mondes écologiques entiers. Construire n’est jamais neutre ; c’est toujours intervenir sur des milieux, des usages, des vies humaines et non humaines. Le béton, parce qu’il fige durablement ces interventions, rend cette responsabilité particulièrement aiguë.

Dans cette perspective, des gestes souvent perçus comme mineurs, faire avec l’existant, réparer, entretenir, transformer sans démolir, ralentir les rythmes de production, acquièrent une portée profondément politique (pp. 177–180). Ils s’opposent frontalement à un système fondé sur l’accélération, la standardisation et le renouvellement permanent du bâti. Le désarmement du béton apparaît alors moins comme une solution clé en main que comme une éthique du bâtir, faite de renoncements, de négociations et de pratiques situées.

Photo de Rupinder Singh sur Unsplash.

Féminisme, décolonialité et soin : élargir la critique

L’une des forces majeures de l’ouvrage réside dans l’articulation étroite que Léa Hobson opère entre critique matérialiste, féminisme et perspectives décoloniales. En introduisant la notion de « patriarcat bétonné » (p. 155 et 156), l’auteure réalise un déplacement analytique décisif afin de relire l’histoire de l’architecture et de la construction depuis ses angles morts. Loin d’une critique abstraite, elle montre comment cette histoire, largement masculine, occidentale et productiviste, s’est constituée par une série d’exclusions : invisibilisation des femmes, disqualification des savoirs vernaculaires, marginalisation des pratiques situées, souvent associées à des contextes non occidentaux ou ruraux (pp. 157–164). Le béton, en tant que matériau standardisé, reproductible et exportable, a joué un rôle central dans cette entreprise d’uniformisation, en effaçant les différences locales et les relations sensibles aux milieux.

Désarmer le béton, c’est aussi désarmer les imaginaires de maîtrise, de conquête et d’universalité qui lui ont donné forme.

La critique féministe et décoloniale débouche alors sur une interrogation profonde sur le rôle de l’architecte et des dispositifs de formation. Léa Hobson analyse la manière dont l’architecture s’est progressivement constituée comme un service industrialisé, éloigné des pratiques artisanales et des responsabilités matérielles directes (pp.165–173). Les écoles d’architecture, en reproduisant les normes professionnelles dominantes, participent à cette dépolitisation du geste de bâtir. Repolitiser l’architecture implique dès lors de sortir des silos disciplinaires, de reconnecter l’acte de construire aux luttes sociales et écologiques, et de reconnaître que dire non, collectivement, constitue aussi un geste professionnel à part entière. En écho aux travaux récents de Mathias Rollot (Décoloniser l’architecture, 2024) et de Philippe Simay (Bâtir avec ce qui reste, 2024), Léa Hobson s’inscrit dans une critique frontale de la réduction du champ de l’architecture à une pratique formelle et disciplinaire, largement détachée de ses conditions matérielles, sociales et écologiques4 C’est dans ce prolongement que la notion de soin vient compléter et approfondir le projet de désarmement. Prendre soin des bâtiments, des sols, des infrastructures vieillissantes, c’est rompre avec la logique de la table rase et de l’innovation permanente (pp. 174–180). L’auteure propose de lire les fissures, les pathologies du béton comme les symptômes matériels de l’épuisement d’un modèle de développement. Le béton devient ainsi un matériau « malade », dont la fragilité contredit le mythe de la durabilité infinie.

Faire de l’entretien, de la réparation et de la maintenance un enjeu politique central revient alors à renverser les hiérarchies de valeur qui structurent la production de l’espace. Ces gestes, historiquement dévalorisés car associés au féminin, au domestique ou à l’invisible, acquièrent une portée critique majeure. Ils déplacent l’attention depuis l’acte héroïque de construire vers les pratiques ordinaires de maintien en vie des milieux bâtis. En ce sens, la politique du soin esquissée par l’auteure représente une véritable alternative au régime bétonné, attentive aux temporalités longues, aux interdépendances et aux vulnérabilités partagées. Désarmer le béton, c’est aussi désarmer les imaginaires de maîtrise, de conquête et d’universalité qui lui ont donné forme.

Lire aussi | Le retour à la terre des bétonneurs・Aldo Poste (2020)

Photo de Albert Stoynov sur Unsplash.

En définitive, Désarmer le béton, ré-habiter la terre s’impose comme un ouvrage précieux et dense, tant par la richesse de ses matériaux empiriques que par ses références théoriques. Il articule finement critique matérielle, analyse politique et attention aux pratiques ordinaires du bâtir. En dialoguant habilement avec de nombreux travaux récents sur le sujet5, Léa Hobson montre que le béton relève d’une infrastructure mentale, sociale et matérielle qui organise la production de l’espace, invisibilise ses chaînes extractives et dépolitise ses violences. En réinscrivant le bâti dans ses conditions écologiques, sociales et historiques, elle contribue à déplacer la critique architecturale vers une écologie politique des matériaux.

Car tout projet anti- ou post-capitaliste se joue dans sa capacité à affronter l’héritage matériel du productivisme, non pour le prolonger sous d’autres couleurs, mais pour apprendre enfin à le défaire.

Si l’ouvrage s’inscrit principalement dans un champ francophone, ce que l’on peut éventuellement regretter, il pourrait néanmoins ouvrir une question décisive : comment cartographier, de manière multiscalaire, les géographies du béton, ses régimes d’extraction, ses imaginaires et ses effets différenciés sur les territoires et les corps ? Cette question appelle, dans le prolongement critique du livre, à penser ces géographies sans céder à une idéalisation du local ni à un repli communautaire. Car si les luttes bretonnes, normandes, ardéchoises, haut-saônoises ou encore euréliennes, et les expérimentations territoriales qu’elles portent, constituent des foyers essentiels de résistance, d’invention et de politisation des pratiques constructives, elles ne sauraient à elles seules répondre à l’ampleur d’un système productif désormais pleinement mondialisé. C’est également dans la mise en relation de ces expériences, à l’échelle européenne voire planétaire, que se joue une part décisive de la transformation à venir.

Si une partie du continent européen est aujourd’hui marquée par la saturation, la démolition-reconstruction ou l’accumulation d’infrastructures, d’autres régions du monde, en particulier en Asie et en Afrique, connaissent une phase d’expansion spatiale et urbaine massive, appelée à engloutir, dans les décennies à venir, des volumes de granulat sans précédent, soit autant de trous dans les paysages et de processus d’artificialisation qui les accompagnent. Dès lors, l’enjeu consiste à mettre en dialogue ces initiatives au-delà des frontières nationales et continentales, afin de tisser patiemment des solidarités translocales. Celles-ci doivent permettre d’articuler savoirs situés, pratiques constructives alternatives et luttes écologiques, pour penser collectivement ce que pourrait signifier habiter et bâtir autrement dans un monde déjà profondément façonné par le béton. Car tout projet anti- ou post-capitaliste se joue dans sa capacité à affronter l’héritage matériel du productivisme, non pour le prolonger sous d’autres couleurs, mais pour apprendre enfin à le défaire.

Image d’accueil : Photo de Francisco Andreotti sur Unsplash.

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Terme que l’on retrouvait également dans l’ouvrage Béton : enquête en sables mouvants de Claude Baechtold, Alia Bengana et Antoine Maréchal, Les Presses de la Cité (2024), p. 64.
  2. Léon Baca, « Accusé Lafarge : on n’oublie pas ». Terrestres, décembre 2025
  3. Article écrit par Fabrice Arfi dans Médiapart le 10 décembre 2025 : « Procès Lafarge : “C’est dans ce moment précis, au Bataclan, que des décisions économiques abstraites deviennent des tirs sur des corps” ».
  4. Mathias Rollot souligne ainsi l’angle mort persistant d’une critique architecturale qui continue de commenter « les formes, les fonctions et les symboliques architecturales » à partir de « filtres entièrement disciplinaires », tout en se préoccupant « si peu de la manière dont tout ceci impacte concrètement les écosystèmes » (Rollot, 2024, p. 50). De son côté, Philippe Simay alerte sur « le risque évident à réduire le champ de compétences de l’architecte à la seule conception spatiale », au prix d’un oubli des « dimensions sociales et écologiques des conditions matérielles du projet » (Simay, 2024, p. 15), et décrit une profession ayant « intériorisé les impératifs d’optimisation » pour se mettre « au service du productivisme et de la société du gâchis » (ibid., p. 16). C’est précisément cette abstraction du projet que Léa Hobson rend lisible à travers l’hégémonie du béton : plus qu’un simple matériau, celui-ci apparaît comme une infrastructure mentale et organisationnelle qui rend possible l’industrialisation du bâti tout en invisibilisant les chaînes extractives, les savoir-faire, les corps et les territoires mobilisés. En ce sens, son analyse prolonge l’appel de Philippe Simay à « relier les montagnes aux trous, les fosses aux gratte-ciels » (ibid., p. 39), tout en rejoignant la volonté de Mathias Rollot de décoloniser l’architecture en s’attaquant non seulement à ses récits, mais aux structures mentales et matérielles qui la constituent (Rollot, 2024, p. 63). L’enjeu est de transformer radicalement ce que bâtir signifie, en réinscrivant l’acte architectural dans des relations situées, écologiques et politiques avec le monde vivant.
  5. À ce sujet, consulter la recension de François Jarrige Le béton, matériau extraterrestre publié dans la revue Terrestres (septembre 2024), où sont mis en dialogue quatre ouvrages majeurs sur le béton : Alia Bengana, Claude Baechtold, Antoine Maréchal, (2024). Béton. Enquête en sables mouvants, Presses de la cité ; Armelle Choplin, (2020). Matière Grise de l’urbain. La vie du ciment en Afrique, MétisPresses ; Anselm Jappe, (2020). Béton. Arme de construction massive du capitalisme, L’échappée ; Nelo Magalhães, (2024). Accumuler du béton, tracer des routes. Une histoire environnementale des grandes infrastructures, La Fabrique.

L’article Made in ruines : en finir avec l’hégémonie du béton est apparu en premier sur Terrestres.

PDF

05.02.2026 à 18:45

La guerre contre la nature : penser l’Anthropocène avec Marcuse

La rédaction de Terrestres

Souhaitable, la réindustrialisation ? Déroutées par la course impériale à la puissance, les élites ultralibérales chantent le retour de l'industrie en Europe. Et si on réfléchissait plutôt à la dynamique technologique incontrôlable et à ses effets de domination ? Pour cette sixième rencontre Terrestres, retour sur la pensée du philosophe Herbert Marcuse.

L’article La guerre contre la nature : penser l’Anthropocène avec Marcuse est apparu en premier sur Terrestres.

Texte intégral (2675 mots)
Temps de lecture : 5 minutes

Table-ronde le jeudi 5 février avec les philosophes Aurélien Berlan, Haud Gueguen et Jean-Baptiste Vuillerod. Une rencontre organisée par Terrestres à l’Académie du Climat à Paris (19h00-21h30). Entrée libre ! Inscription souhaitée ici.

Vous pouvez aussi suivre les rencontres Terrestres en direct le soir de l’évènement ou bien les écouter tranquillement en différé, grâce à notre partenariat avec la radio associative ∏node.


Qui connaît encore le philosophe allemand Herbert Marcuse (1898-1979)  ? À la mort de celui-ci, André Gorz, figure de l’écologie politique alors en pleine ébullition, lui rend hommage : « Nous sommes tous enfants de Marcuse ». Peut-on lire cette formule comme une invitation à voir dans Marcuse un intellectuel qui a contribué à nourrir le fond théorique et politique de l’écologie politique ?

Cette sixième Rencontre Terrestres explorera cette hypothèse en revenant sur son œuvre, relue à l’aune de l’effondrement écologique et de notre dépendance extrême aux technologies. Dès 1955, alors que l’enchantement par la consommation de masse domine, Marcuse développe depuis les États-Unis une critique du consumérisme et du type d’être humain qu’il produit.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Dans Éros et civilisation (1955) et L’homme unidimensionnel (1964), Marcuse analyse la nature de la technologie moderne afin de comprendre dans quelle mesure elle participe d’un projet politique et capitaliste de domination. Cet examen le conduit à développer des thèses ambivalentes, voire contradictoires : il perçoit à la fois le caractère aliénant du pouvoir technologique, mais également ses potentialités émancipatrices dans l’optique d’une révolution permettant une réappropriation de l’infrastructure du capitalisme industriel. Dans ces conditions, comment hériter de Marcuse ? Comment actualiser les chantiers théoriques et politiques qu’il a ouverts  ? Comment le lire à l’heure de la prédation généralisée et de l’emballement technologique et climatique ?

Dans un colloque intitulé « Écologie et révolution » et organisé à Paris par André Gorz en 1972, Marcuse proposait de voir dans la « guerre contre la nature » le phénomène central pour analyser le capitalisme dans sa contradiction avec les écosystèmes et les milieux de vie. À l’heure de la catastrophe écologique, il est urgent de redécouvrir les leçons stratégiques de cet auteur en vue de s’atteler à la grande tâche politique qui demeure plus que jamais la nôtre : en finir avec le productivisme et les formes de subjectivité qui en soutiennent la destructivité.

La rencontre abordera les thèmes suivants :

1/ Pourquoi relire Marcuse aujourd’hui ? Les intervenant·es nous parleront de leur intérêt pour cette œuvre et analyseront le renouveau éditorial qu’il suscite dans divers pays.

2/ Retour sur le contexte de l’écriture de l’œuvre de Marcuse : rappel biographique ; brève présentation de la théorie critique de l’Ecole de Francfort et de son rapport à Theodor W. Adorno-Max Horkheimer ; engagement politique de Marcuse aux côtés des mouvements de jeunesse des années 1960-1970 et découverte de la question écologique.

3/ Discussion autour du diagnostic de Marcuse sur la technologie moderne : quelle est la nature de l’ordre socio-technique produit par la dynamique de rationalisation et d’industrialisation ? Comment le travail, l’ordre politique et les sujets sont-ils façonnés par le développement continu des forces productives ? Comment penser avec Marcuse une transformation du travail et des techniques, au service de l’émancipation et de l’autonomie ?

4/ Analyse de la pensée écologique de Marcuse : son élaboration théorique se fait en lien étroit avec une réflexion sur le féminisme, l’anticolonialisme et l’anti-autoritarisme, dans la mesure où il s’agit à chaque fois de mettre au jour une dimension spécifique de la domination capitaliste. Penser l’Anthropocène et le Capitalocène avec Marcuse signifie qu’une écologie politique conséquente est nécessairement anticapitaliste, féministe et anticoloniale.

5/ Comment articuler une critique du mode de production capitaliste et une critique de la modernité fondée sur un partage du monde où les êtres et les choses sont hiérarchisés selon la distinction nature/culture ? On fera ici dialoguer Marcuse avec les critiques contemporaines de la nature et du naturalisme (Descola, Latour) : le philosophe allemand défendait une approche où l’idée de nature, réélaborée dans le sillage de Marx, offre un point d’appui essentiel pour appréhender et penser la domination sociale et capitaliste de la nature. Dans cette perspective, le concept de nature est indépassable ; c’est le fondement à partir duquel on peut critiquer à la fois la modernité et le capitalisme.

Le jeudi 5 février 2026, de 19h00 – 21h30, à l’Académie du Climat – Salle des mariages – 2 place Baudoyer – 75004 Paris.

Entrée libre ! Inscription souhaitée ici.


Intervenant·es :

Aurélien Berlan est maître de conférence au département de sciences économiques et gestion de l’Université Toulouse 2 – Jean Jaurès. Il a contribué aux écrits du Groupe Marcuse (De la misère humaine en milieu publicitaire, La Découverte, 2004 ; La Liberté dans le coma, La Lenteur, 2013). Il a publié un essai sur la critique de la modernité industrielle par les sociologues allemands : La Fabrique des derniers hommes (La Découverte, 2012), et une théorie de la liberté articulée au féminisme de la subsistance : Terre et liberté. La quête d’autonomie contre le fantasme de délivrance (La Lenteur, 2021).

Il a notamment écrit dans Terrestres : Autonomie : l’imaginaire révolutionnaire de la subsistance et Snowden, Constant et le sens de la liberté à l’heure du désastre.

Haud Guéguen est maîtresse de conférences en philosophie au Conservatoire national des arts et métiers. Ses travaux portent sur les sciences humaines et sociales du possible et sur l’histoire du néolibéralisme. Elle a notamment publié Herbert Marcuse. Face au néofascisme (Paris, Amsterdam, 2025) ; avec Pierre Dardot, Christian Laval et Pierre Sauvêtre : Le Choix de la guerre civile. Une autre histoire du néolibéralisme (Lux, 2021), et avec Laurent Jeanpierre : La Perspective du possible. Comment penser ce qui peut nous arriver, et ce que nous pouvons faire (La Découverte, 2022).

Elle a notamment écrit dans Terrestres : Désirer après le capitalisme.

Jean-Baptiste Vuillerod est agrégé et docteur en philosophie. Ses travaux portent sur la philosophie de Hegel et ses réceptions dans les pensées critiques contemporaines : la philosophie française des années 1960, l’École de Francfort, les théories féministes, l’écologie politique. Il a notamment écrit Theodor W. Adorno : La domination de la nature (Amsterdam, 2021).

Il a écrit dans Terrestres : L’héritage de la Dialectique de la raison chez les écoféministes.


Pour écouter les anciennes Rencontres Terrestres, c’est ici.


Photo d’ouverture : Herbert Marcuse with his then UC San Diego graduate student Angela Davis, 1969. Crédits : Monoskop.

SOUTENIR TERRESTRES

Nous vivons actuellement des bouleversements écologiques inouïs. La revue Terrestres a l’ambition de penser ces métamorphoses.

Soutenez Terrestres pour :

  • assurer l’indépendance de la revue et de ses regards critiques
  • contribuer à la création et la diffusion d’articles de fond qui nourrissent les débats contemporains
  • permettre le financement des deux salaires qui co-animent la revue, aux côtés d’un collectif bénévole
  • pérenniser une jeune structure qui rencontre chaque mois un public grandissant

Des dizaines de milliers de personnes lisent chaque mois notre revue singulière et indépendante. Nous nous en réjouissons, mais nous avons besoin de votre soutien pour durer et amplifier notre travail éditorial. Même pour 2 €, vous pouvez soutenir Terrestres — et cela ne prend qu’une minute..

Terrestres est une association reconnue organisme d’intérêt général : les dons que nous recevons ouvrent le droit à une réduction d’impôt sur le revenu égale à 66 % de leur montant. Autrement dit, pour un don de 10€, il ne vous en coûtera que 3,40€.

Merci pour votre soutien !

L’article La guerre contre la nature : penser l’Anthropocène avec Marcuse est apparu en premier sur Terrestres.

PDF

22.01.2026 à 19:34

“Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille

Stéphane Lalut

Derrière le monde des marchandises, il y a les arrière-mondes de la production ou du transport. Derrière les écrans, il y a une énorme infrastructure matérielle et physique. Et derrière les clouds, il y a les indispensables data centers, qui prolifèrent en avalant l’espace et l’électricité. À Marseille, assaillie par les câbles, la résistance s’organise.

L’article “Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille est apparu en premier sur Terrestres.

Texte intégral (4465 mots)
Temps de lecture : 8 minutes

Marseille. Porte d’Aix. Mars 2024.

Une cinquantaine de corps — femmes, hommes, enfants — figés devant un chantier.

Des banderoles tendues entre deux barrières métalliques : « Pas de cloud sans béton », « Nos quartiers ne sont pas vos serveurs ».

Dans les journaux, silence. Ou presque.

Dans les rues, colère.

Le cube de béton en construction derrière les grilles n’a rien de virtuel. Il est massif, épais, hérissé de gaines d’aération. Il avalera bientôt l’équivalent électrique de 30 000 foyers. Dans une ville où un quart des habitants vit sous le seuil de pauvreté.

Fatima, 62 ans, désigne les fenêtres de son appartement, à cinquante mètres :

« L’été dernier, on dormait plus. Le bruit des groupes électrogènes, la chaleur qui montait du bitume… Et maintenant, ils nous disent que c’est le progrès. Trois emplois, des vigiles, et le reste ? »

« Votre cloud, notre fournaise. »

Ce qui se joue ici n’est pas une exception. C’est un condensé — de ce que la novlangue numérique cherche à dissoudre : les résistances, les conflits, les corps, les lieux.

Derrière les mots — cloud, virtualisation, immatériel —, il y a des serveurs qui chauffent, des camions qui passent, des transformateurs qui vrombissent, des métaux qui s’arrachent.

Il faut reprendre depuis le sol. Depuis l’endroit exact où l’on vit. C’est cela, partir des luttes situées : non pas appliquer une théorie au réel, mais laisser le réel produire ses propres catégories.

À ne pas rater !

L'infolettre des Terrestres

Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.

Adresse e-mail non valide
En validant ce formulaire, j'accepte de recevoir des informations sur la revue Terrestres sous la forme d'une infolettre éditoriale bimensuelle et de quelques messages par an sur l'actualité de la revue.J'ai bien compris que je pourrai me désinscrire facilement et à tout moment en cliquant sur le lien de désabonnement présent en bas de chaque email reçu, conformément à la RGPD.
Merci de votre abonnement !

Marseille, point d’impact

Pourquoi Marseille ?

Parce qu’une quinzaine de câbles sous-marins y atterrissent, faisant de la ville un nœud stratégique entre l’Europe, l’Afrique et l’Asie1. Parce que cette connectivité — qui n’a jamais fait l’objet d’un vote — attire les opérateurs. Parce que les quartiers nord, moins chers, moins visibles, moins défendus, offrent les conditions « idéales » pour déployer ces infrastructures.

Résultat : une dizaine de data centers déjà actifs, et autant en projet. Puissance électrique cumulée : près de 80 MW aujourd’hui, environ 180 MW à terme2 — davantage que ce qui est prévu pour électrifier les quais du port. Impact carbone : celui d’une ville moyenne, concentré dans quelques arrondissements populaires.

Ce que les riverains reçoivent en échange n’est pas la promesse du numérique. Ce sont des nuisances. Des moteurs de secours qui tournent nuit et jour. Des rejets d’air chaud à 40°C dans des rues déjà suffocantes. Et cette évidence brute : l’énergie que ces centres absorbent n’ira pas ailleurs.

Carte des câbles sous-marins, TeleGeography’s Transport Networks Research Service. https://www.submarinecablemap.com/

Le cloud a un corps

Guillaume Pitron l’a montré dans L’Enfer numérique3. Gauthier Roussilhe le cartographie ligne par ligne4. Le numérique est un système de transfert. Il extrait ici, refroidit là, connecte là-bas — mais les gains ne sont jamais là où se loge le désordre.

Netflix ne « flotte » pas. ChatGPT ne « s’évapore » pas. Une seconde de streaming : quelques grammes de CO₂. Une requête IA : plusieurs wattheures. Des milliards de fois par jour.

Le numérique promet la fluidité. Il produit la friction, ailleurs.

Le mensonge du cloud « vert »

Google annonce des data centers « 100 % renouvelables ». Microsoft jure être « négatif en carbone » d’ici 2030. Amazon aligne des rapports ESG comme des titres en bourse.

Mais ce verdissement est comptable, pas physique.

Lorsque Google achète de l’électricité verte, c’est souvent par certificat — les fameux Power Purchase Agreements. L’énergie renouvelable est produite ailleurs, parfois à des milliers de kilomètres. Le certificat voyage ; les électrons, eux, viennent du réseau local — et quand la demande est forte, ce sont les centrales d’appoint qui répondent.

La « neutralité carbone » ? Une fiction à échéance glissante. On émet aujourd’hui. On promet de compenser demain. En plantant des arbres au Brésil. En misant sur la croissance, l’absence d’incendies. Une dette écologique gagée sur des hypothèses de long terme — pendant que le dérèglement, lui, est immédiat.

Infrastructures numériques à Marseille. Carte élaborée par la Quadrature du Net et le collectif Le nuage était sous nos pieds, Marseille, novembre 2024 (dernière mise à jour novembre 2025). Consulter la carte.

Nommer le mécanisme : la dette entropique

Le mot « externalité » est trop faible. Il suggère un à-côté, un effet secondaire. Or ici, le transfert est central. Ce n’est pas un dommage collatéral — c’est la condition même du fonctionnement.

Par dette entropique, j’entends la somme des dégâts matériels et sociaux qu’un système rejette sur d’autres lieux et d’autres corps pour continuer à fonctionner. Pour qu’un data center soit « propre » à Paris, il faut qu’un quartier surchauffe à Marseille. Pour qu’une batterie soit « verte » en Europe, il faut qu’un enfant creuse à Kolwezi (RDC).

Le concept vient de la thermodynamique. Le second principe stipule qu’on ne peut pas réduire le désordre ici sans l’augmenter ailleurs. Pas d’îlot de fraîcheur sans chaleur rejetée. Pas de machine sans perte.

Ce mécanisme prolonge ce que Gérard Dubey et Alain Gras nomment le « modèle Edison »5 : une technologie qui fait disparaître la nuisance au point d’usage, tout en la reportant ailleurs et en programmant l’oubli de ce déplacement.

Transposée aux infrastructures sociales, cette logique devient un outil d’enquête : qui absorbe le désordre ? Où le transfert s’effectue-t-il ? Par quelles techniques est-il invisibilisé ?

Ce cadre dialogue avec des travaux déjà publiés dans Terrestres. Malcom Ferdinand et Françoise Vergès6 ont analysé le « colonialisme vert » — cette écologie qui nettoie le Nord en salissant le Sud. Antoinette Rouvroy et Thomas Berns7 ont théorisé la « gouvernementalité algorithmique » — ce pouvoir qui anticipe les conduites par le calcul, court-circuitant la délibération au profit du profilage. La dette entropique prolonge ces analyses en insistant sur les circuits concrets : par quels chemins le désordre passe-t-il de Palo Alto à Kolwezi, de la Silicon Valley aux quartiers nord de Marseille ?

Le « colonialisme numérique » n’est pas une métaphore : c’est une chaîne logistique.

Les extrémités du réseau

En République Démocratique du Congo, des enfants extraient du cobalt à mains nues, à quinze mètres sous terre. Ce métal entre dans les batteries — y compris celles des serveurs. Plus au nord, dans le Kivu, le tantale et l’étain des circuits imprimés alimentent depuis trente ans une économie de guerre documentée par l’ONU : mines contrôlées par des groupes armés, travail forcé, viols comme stratégie militaire. Comme l’a montré Celia Izoard dans ces pages, l’accord minier signé en 2024 entre l’Union européenne et le Rwanda — principal bénéficiaire du pillage — a coïncidé avec une intensification des combats8. Le « colonialisme numérique » n’est pas une métaphore : c’est une chaîne logistique.

En janvier 2023, à Lützerath, en Rhénanie, des militants ont été expulsés par la police. Le village devait disparaître pour faire place à la mine de lignite de Garzweiler. Ce charbon alimente les centrales qui fournissent l’électricité des data centers allemands.

Question posée par les occupants : Pourquoi ici ? Pourquoi nous ? Aucune réponse légitime. Seulement celle de la « nécessité énergétique » — comme si cette nécessité-là, au service de ces usages-là, allait de soi.

La carte de la dette entropique est globale. De nos écrans lisses à leurs sols creusés.

Ce que les luttes rendent visible

À Marseille, à Montpellier, à La Courneuve : des collectifs se lèvent. Ils refusent de porter le poids du progrès des autres. Ce n’est pas du nimbysme — ce réflexe du « pas dans mon jardin » qui délocalise le problème sans le résoudre. C’est une politique du refus situé : partir d’un lieu précis pour contester le système entier. Non pas « pas chez moi », mais « pourquoi ici plutôt qu’ailleurs ? » — et surtout : « pourquoi tout court ? »

Partir des luttes situées, c’est refuser d’appliquer une grille théorique au réel pour laisser les conflits produire leurs propres catégories. Les data centers ne sont pas des équipements neutres. Ce sont des dispositifs de pouvoir — et c’est comme tels qu’ils doivent être contestés.

Maria Kaika et Erik Swyngedouw9 ont proposé le concept de « politisation de l’infrastructure » : réintroduire le conflit démocratique là où régnait la fatalité technique. C’est exactement ce qui se joue à Marseille.

Carte des data centers, des projets et des contestations en France élaborée par le collectif Le nuage était sous nos pieds. Consulter la carte.

Réduire, puis politiser

Face à l’expansion du numérique, le solutionnisme technique promet que l’IA va tout « optimiser », réduire les émissions, verdir les data centers. C’est le discours de la Commission européenne, de McKinsey. Ce qu’il oublie : l’optimisation ne supprime pas le désordre — elle le déplace. Les smart cities brillent sur le dos des territoires extractifs, des travailleurs du clic à Madagascar, payés quelques centimes pour entraîner les IA.

À ce solutionnisme, la tradition technocritique — d’Illich à Ellul, de Dubey et Gras aux collectifs actuels — oppose une tout autre démarche : non pas le refus abstrait de « la technique », mais l’enquête concrète sur les systèmes techniques. Quelles technologies créent de la dépendance ? Lesquelles permettent l’autonomie ? Comment distinguer l’outil convivial de l’infrastructure qui asservit ?

La notion de dette entropique s’inscrit dans cette lignée. Elle invite à une question simple : qui paie ? Et elle conduit à deux exigences indissociables : d’abord réduire — car aucun « verdissement » ne compensera la croissance exponentielle des flux de données et de matière — puis politiser la répartition des coûts qui subsistent.

Politiser les transferts

Qui décide où installer un data center ? Quels critères président à ce choix ? Quelles compensations pour les territoires qui absorbent le désordre ? Quels droits pour refuser, contester, infléchir ?

Ce sont des questions politiques. Pas techniques. Elles doivent être traitées comme telles. Dans les conseils municipaux. Dans les enquêtes publiques. Dans la rue s’il le faut.

Ce que demandent les habitants du 2e arrondissement de Marseille pourrait devenir un principe :

→ Pas d’infrastructure entropique sans délibération locale.

→ Pas de transfert de désordre sans droit de veto.

→ Pas de modernité qui ne soit négociée.

Partager le désordre

Il n’y a pas de numérique propre. Il n’y a pas de cloud neutre. Il n’y a pas de progrès sans friction.

Mais il y a une exigence : faire que la répartition de cette friction soit un objet de délibération. Non pas décider pour les autres — mais décider avec eux, ou pas du tout.

À Marseille, les câbles plongent. Les data centers s’installent. Et dans les quartiers nord, des habitants commencent à demander : pourquoi ici ?

Ce que d’autres décrivent comme un « système d’invisibilité » climatique prend ici une forme très concrète : certains quartiers, certains corps, absorbent le désordre numérique des autres.

C’est de cette question que naît la politique.

Photo de Hunter Harritt sur Unsplash.

NOUS AVONS BESOIN DE VOUS !

Depuis 2018, Terrestres est la revue de référence des écologies radicales.

À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.

Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.

En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.

Merci ❤ !

Notes

  1. Le nombre exact de câbles est en évolution rapide. L’ordre de grandeur est aujourd’hui de 17-18 câbles sous-marins reliés à Marseille, selon la manière de compter (sources : TeleGeography, La Quadrature du Net, Digital Realty, 2024).
  2. Selon les données des Comités d’intérêt de quartier relayées par La Quadrature du Net : 77 MW pour les data centers actuels, 107 MW pour les projets programmés. L’électrification des quais du Grand Port Maritime est estimée à 100-120 MW.
  3. Guillaume Pitron, L’Enfer numérique. Voyage au bout d’un like, Les Liens qui Libèrent, 2021.
  4. Gauthier Roussilhe, « Situer le numérique », 2020, disponible sur gauthierroussilhe.com.
  5. Gérard Dubey et Alain Gras, La servitude électrique. Du rêve de liberté à la prison numérique, Seuil, 2021.
  6. Malcom Ferdinand, Une écologie décoloniale. Penser l’écologie depuis le monde caribéen, Seuil, 2019. Françoise Vergès, Une théorie féministe de la violence, La Fabrique, 2020.
  7. Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, 2013.
  8. Celia Izoard, « Un néo-colonialisme technologique : comment l’Europe encourage la prédation minière au Congo », Terrestres, juillet 2025. Voir aussi « Au Congo, l’extractivisme détruit une économie fondée sur la relation », Terrestres, juillet 2025.
  9. Maria Kaika et Erik Swyngedouw, “The Urbanization of Nature”, in The New Blackwell Companion to the City, Blackwell, 2011.

L’article “Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille est apparu en premier sur Terrestres.

PDF
10 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓