28.05.2025 à 17:00
Sebastien Bourdin, Professeur de Géographie économique, Titulaire de la Chaire d'excellence européenne "Economie Circulaire et Territoires", EM Normandie
Nicolas Jacquet, Chargé de Recherche ∙ Chaire d'excellence européenne Économie circulaire et Territoires, EM Normandie
Sur le papier, recycler ses vêtements semble un geste vertueux, mais la réalité est tout autre. L’industrie textile produit des déchets en masse, tandis que le recyclage peine à suivre une consommation effrénée. Entre fast-fashion, technologies limitées et exportations vers des pays sans infrastructures adaptées, le modèle circulaire vacille.
L’industrie de la mode a connu une transformation radicale avec l’essor de la fast-fashion : des vêtements bon marché, fabriqués à partir de matériaux peu coûteux, conçus pour être portés une seule saison – voire moins – avant d’être stockés définitivement dans nos armoires ou d’être jetés. Chaque année, pas moins de 3 milliards de vêtements et chaussures sont mis sur le marché en France, d’après le Baromètre des ventes de Refashion.
Ce modèle de production et de consommation frénétique n’est pas sans conséquences : selon les estimations, l’industrie textile représenterait jusqu’à 10 % des émissions mondiales de gaz à effet de serre, soit davantage que les vols internationaux et le transport maritime réunis. En cause, la prédominance du polyester, un dérivé du pétrole, qui constitue la majorité des vêtements.
Pour s’attaquer à ce fléau, en 2022, la Commission européenne dévoilait sa stratégie pour des textiles durables et circulaires en assurant :
« À l’horizon 2030, les produits textiles mis sur le marché de l’Union seront à longue durée de vie et recyclables, dans une large mesure, fabriqués à partir de fibres recyclées, exempts de substances dangereuses, et produits dans le respect des droits sociaux et de l’environnement. »
Mais, malgré cette prise de conscience politique, la fast-fashion continue de prospérer, alimentée par une production mondiale qui a doublé depuis 2000 et une consommation effrénée poussée par des campagnes de marketing bien rôdées. En l’espace de quinze ans, la consommation occidentale de vêtements a ainsi augmenté de 60 %, alors que nous les conservons deux fois moins longtemps et que certains, très bon marché, sont jetés après seulement 7 ou 8 utilisations. Les chiffres de l’Agence européenne de l’environnement sont accablants : entre 4 % et 9 % des textiles mis sur le marché européen sont détruits avant même d’avoir été portés, soit entre 264 000 et 594 000 tonnes de vêtements éliminés chaque année.
En France, l’Agence de la transition écologique (Ademe) estime que ce gaspillage atteint entre 10 000 et 20 000 tonnes : 20 % des vêtements achetés en ligne sont retournés, et un tiers d’entre eux sont détruits. Leur traitement implique un long processus : tri, reconditionnement, transport sur des milliers de kilomètres… Une aberration écologique.
Mais alors, comment en est-on arrivé à un tel décalage entre la volonté de mieux recycler… et la réalité de nos usages vestimentaires ?
Une étude récente, menée en 2024 par des chercheurs de l’Université catholique de Louvain (UKL), apporte un éclairage nouveau sur nos habitudes vestimentaires. Réalisée auprès de 156 adultes vivant en Flandres (Belgique), l’enquête révèle que la garde-robe moyenne contient 198 vêtements, dont 22 % restent inutilisés pendant plus d’un an.
Pourtant, les trois quarts de ces vêtements qui restent dans nos placards sont encore en bon état et pourraient être réutilisés, mais la majorité des propriétaires les conservent « au cas où », par attachement émotionnel ou anticipation d’un usage futur. L’étude conclut que le manque de solutions accessibles pour revendre ou donner ses vêtements ainsi que la faible demande pour la seconde main freinent leur réutilisation.
Nos placards ne sont pas les seuls à être saturés. Les points de collecte textile déployés par les collectivités sont eux aussi submergés par un afflux massif de vêtements, souvent de mauvaise qualité. Les vêtements d’entrée de gamme, difficiles à valoriser, encombrent ainsi les structures de tri et compliquent le travail des associations, qui, jusqu’ici, tiraient leurs revenus des pièces de meilleure qualité revendues en friperies solidaires.
La situation est telle que Refashion, l’éco-organisme de la filière textile, a récemment débloqué une aide d’urgence de 6 millions d’euros pour soutenir les 73 centres de tri conventionnés, dont l’activité est fragilisée par la chute des débouchés, notamment à l’export. Car, depuis longtemps, les vêtements qui ne trouvent pas preneur sur le marché français – parce que trop usés, démodés ou invendables – sont expédiés vers d’autres pays, principalement en Afrique ou en Asie.
Chaque année, l’Union européenne (UE) exporte ainsi 1,7 million de tonnes de textiles usagés, selon l’Agence européenne de l’environnement. La France à elle seule, en 2021, expédiait 166 000 tonnes de vêtements et de chaussures usagés, soit 3 % du volume total des exportations mondiales.
Ces flux partent principalement vers le Pakistan, les Émirats arabes unis et le Cameroun, selon les données douanières. Si ce commerce génère des emplois et des revenus dans l’économie informelle, il aggrave aussi la pollution textile dans des pays sans infrastructures adaptées au traitement des déchets. La plage de Korle-Gonno à Accra (Ghana) en est l’un des exemples les plus frappants, transformée en véritable décharge à ciel ouvert.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Mais cette donne pourrait changer. L’UE cherche à imposer un cadre plus strict sur les flux transfrontaliers de déchets textiles, notamment en intégrant ces derniers à la Convention de Bâle, qui régule les exportations de déchets dangereux et non dangereux. Cette évolution pourrait imposer davantage de traçabilité et de contrôles, afin d’éviter que l’Europe continue d’exporter son problème textile vers des pays incapables de le gérer.
Face à l’ampleur du problème, la loi Anti-gaspillage pour une économie circulaire (Agec), adoptée en 2020, fixait un cap ambitieux : collecter 60 % des textiles usagés d’ici 2028 et en recycler 70 % dès 2024, puis 80 % à l’horizon 2027. Une trajectoire progressive censée stimuler la montée en puissance des filières de tri et de valorisation.
Dans la foulée, l’Assemblée nationale adoptait en mars 2024 une proposition de loi pour « démoder la fast-fashion ». Le texte cible les géants de l’ultra fast-fashion, qui inondent le marché avec plus de 1 000 nouveautés quotidiennes. Il prévoit également un système de bonus-malus environnemental pouvant aller jusqu’à 50 % du prix de vente – plafonné à 10€ par article – afin de financer des marques plus vertueuses et de ralentir cette surproduction.
La proposition de loi doit encore franchir l’étape du Sénat, où elle n’a pas encore été inscrite à l’ordre du jour. Et en attendant, les objectifs de la loi Agec peinent à se concrétiser. En 2023, environ 270 000 tonnes de textiles ont été collectées dans l’Hexagone, mais seules 33 % ont été réellement recyclées en nouvelles matières premières. Bien loin des 70 % fixés pour 2024. En cause : un manque d’infrastructures de tri automatisé, des capacités de traitement limitées, et des opérateurs – souvent issus de l’économie sociale et solidaire – sous-dotés financièrement. À l’échelle mondiale, le constat est encore plus alarmant : moins de 1 % des fibres textiles usagées sont réutilisées pour fabriquer de nouveaux vêtements.
Sur le papier, pourtant, les technologies de recyclage se perfectionnent. Certaines entreprises, comme l’entreprise française, créée en 2011, Carbios, tentent d’innover avec un recyclage enzymatique capable de dégrader les fibres de polyester pour les transformer en nouveaux textiles. Une avancée saluée, mais encore loin d’être généralisée.
Dans les faits, l’immense majorité du recyclage textile repose sur des méthodes mécaniques, bien moins efficaces. Les vêtements sont triés par couleur et selon leur composition, puis déchiquetés en fibres courtes ou effilochés pour produire des isolants ou des chiffons. Autrement dit, quand ils sont recyclés, les textiles, au lieu d’être réutilisés dans un cycle vertueux, sont plutôt « downcyclés », dégradés ou transformés en produits de moindre valeur, en isolants thermo-acoustiques ou en rembourrage pour sièges de voiture, tandis que moins de 1 % des vêtements usagés sont transformés en nouveaux vêtements, selon une logique de boucle fermée ou au moyen de procédés fibre à fibre.
Si le recyclage est donc une solution, celle-ci présente de nombreuses limites.
Le design des vêtements, par exemple, n’est pas fait pour faciliter leur valorisation. Car les habits contiennent un mélange complexe de matériaux : des fibres souvent mélangées ou diverses (polyester, coton, polycoton) combinées à des éléments métalliques (fermetures éclair, boutons, boucles) et plastiques (étiquettes, logos en vinyle ou motifs imprimés) qui nécessitent un tri particulièrement minutieux pour permettre leur réutilisation ou leur transformation, chaque matière requérant un traitement spécifique. Cette étape, essentielle, mais coûteuse, reste difficile à intégrer pour des structures solidaires qui n’ont pas les capacités d’investissement des grands groupes.
Des alternatives existent, certes, mais elles ne sont pas toujours aussi vertueuses qu’annoncées. Le polyester recyclé, souvent mis en avant par la mode écoresponsable comme la solution la moins carbonée, présente de sérieuses limites.
Cette fibre est issue, dans la grande majorité des cas, du recyclage de bouteilles en plastique PET. Or, ces bouteilles sont ainsi détournées d’un circuit de recyclage fermé – le recyclage bouteille-à-bouteille ou pour les emballages alimentaires – vers la fabrication de textiles. Une fois transformés en vêtements, ces matériaux deviennent pratiquement impossibles à recycler, en raison des teintures, des additifs et surtout des mélanges de fibres.
Si le polyester recyclé séduit tant l’industrie textile, c’est d’abord pour des raisons de logistique et de volume. Les bouteilles en PET constituent un gisement mondial abondant, facile à collecter et à traiter. Aujourd’hui, environ 7 % des fibres recyclées utilisées dans le textile proviennent de bouteilles plastiques – dont 98 % sont en PET. À l’inverse, moins de 1 % des fibres textiles recyclées proviennent de déchets textiles eux-mêmes.
Les différents types de recyclages
Source : The Carbon Footprint of Polyester (Carbonfact). Données basées sur la base EF 3.1, développée par le Joint Research Centre (JRC) de la Commission européenne, dans le cadre de l’initiative Product Environmental Footprint (PEF).
Méthode | Émissions carbone (kg CO2e/kg) | Remarques |
---|---|---|
Recyclage mécanique | 0,68 – 1,56 | Méthode la plus répandue. Utilise des bouteilles plastiques, mais détourne ces déchets de circuits fermés. Qualité de fibre dégradée à chaque cycle, recyclabilité textile très limitée. |
Recyclage chimique | 1,23 – 3,79 | Procédé plus vertueux sur le papier (fibre à qualité équivalente), adapté aux déchets textiles. Mais technologie coûteuse, énergivore et encore peu industrialisée. |
PET vierge fossile | 3,12 | Fabriqué à partir de pétrole, avec un processus très émetteur. Aucune circularité : chaque vêtement produit génère un futur déchet. |
Enfin, autre problème rarement évoqué : les microfibres plastiques. Les vêtements en polyester, qu’ils soient recyclés ou non, libèrent à chaque lavage des microfibres plastiques susceptibles de perturber les écosystèmes marins et d’entrer dans la chaîne alimentaire humaine. Cette pollution est amplifiée dans le cas du polyester recyclé : soumis à des contraintes thermiques et mécaniques lors du recyclage, le matériau voit ses chaînes polymères se dégrader. Raccourcies et fragilisées, elles sont plus enclines à se fragmenter dès les premiers lavages.
Une étude, publiée en 2024 dans la revue Environmental Pollution, a montré que, à caractéristiques égales, un tissu en polyester recyclé libérait en moyenne 1 193 microfibres par lavage, contre 908 pour son équivalent en polyester vierge. Même écolabellisés, certains textiles recyclés peuvent donc polluer davantage, si l’on considère l’ensemble de leur cycle de vie.
Trier, certes, c’est bien. Mais croire que ces gestes suffiront à endiguer la catastrophe environnementale est une illusion.
Tant que la production textile continuera d’augmenter à un rythme effréné, aucune politique de tri ne pourra compenser la montagne de déchets générée. Le mythe du bon citoyen trieur repose donc sur un malentendu : trier ne signifie pas recycler, et recycler ne signifie pas résoudre la crise des déchets. La vrai solution, c’est d’abord de produire moins, de consommer moins, et de concevoir des vêtements pensés pour durer et être réellement recyclables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.05.2025 à 16:59
Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie
Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie
Associant phrases chocs, musiques entraînantes et récits de transformation physique, de jeunes femmes font sur TikTok la promotion d’une maigreur extrême. Loin de provoquer du rejet, ces messages sont discutés et très partagés sur le réseau social, interpellant éducateurs et professionnels de santé.
Dans les années 1990, les couvertures des magazines féminins annonçaient l’été avec des injonctions à changer son corps : il fallait « perdre 5 kilos avant la plage » ou « retrouver un ventre plat en 10 jours » afin de ressembler aux mannequins filiformes des podiums.
Aujourd’hui, ces supports papier perdent du terrain chez les jeunes filles, au profit de réseaux sociaux comme TikTok, une plateforme au cœur de leur culture numérique. L’imaginaire du corps parfait s’y diffuse plus vite, plus fort, et de manière plus insidieuse.
Parmi les tendances incitant à la minceur sur ce réseau social, #SkinnyTok apparaît comme l’un des hashtags les plus troublants avec 58,2 K de publications en avril 2025.
À l’aide de vidéos courtes mêlant musiques entraînantes, filtres séduisants et récits de transformation physique (les fameux avant/après), de jeunes femmes s’adressent à leurs paires pour les inciter à moins manger, voire à s’affamer.
Centrées sur des heuristiques de représentativité, ces jeunes femmes mettent en scène leurs corps comme une preuve de la pertinence des conseils qu’elles avancent. Elles soulignent ainsi que leur vécu est un exemple à suivre : « Je ne mange presque plus. »
En surface, leurs recommandations nutritionnelles se fondent sur les messages sanitaires auxquelles elles sont exposées depuis leur enfance : manger sainement, faire du sport… Mais en réalité, leurs discours prônent des régimes dangereusement restrictifs, des routines visant à façonner des corps ultraminces. Basés sur la croyance, qu’il faut éviter de manger pour perdre rapidement du poids, des conseils de jeûne intermittent, des astuces pour ignorer la faim sont véhiculés : « Je ne mangeais qu’à partir de 16 heures + pilates à côté. »
Ici, pas de mises en scène de recettes ou de bons plans pour mieux manger comme dans la plupart des contenus « healthy » sur Instagram, mais des phrases chocs facilement mémorisables pour véhiculer une pression sociale : « Si elle est plus maigre que toi, c’est qu’elle est plus forte que toi » ; « Ne te récompense pas avec de la nourriture, tu n’es pas un chien ! » ; « Tu n’as pas faim, c’est juste que tu t’ennuies » ; « Si ton ventre gargouille, c’est qu’il t’applaudit. »
On ne trouve pas non plus dans les messages estampillés #SkinnyTok de propos bienveillants et empathiques, confortant une estime de soi.
À lire aussi : « Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans
Au contraire, les prises de parole sont agressives et pensées comme un levier efficace de changement comportemental. Le principe est de susciter des émotions négatives basées sur la culpabilité avec, comme source de motivation, la promesse de vivre un bel été : « Tu ne veux pas faire de sport, OK, alors prépare-toi à être mal dans ta peau cet été. »
Loin de provoquer du rejet sur le réseau social, ces messages sont discutés, partagés, voire complétés par des témoignages issus des abonnées. Certains messages deviennent des références évocatrices de la tendance. Cette viralité amplifiée par l’algorithme de TikTok enferme alors ces jeunes filles dans des bulles cognitives biaisées, qui valident des pratiques délétères pour leur santé.
Si cette tendance « skinny » est rarement remise en question par les followers, c’est sans doute parce que les contenus diffusés apparaissent comme simples à comprendre et qu’ils bénéficient d’une validation visuelle des corps exposés.
Ils s’ancrent dans des connaissances naïves qui viennent se heurter à des savoirs scientifiques, perçus comme plus complexes et moins faciles à mettre en œuvre dans le vécu quotidien des adolescentes pour obtenir rapidement le résultat corporel escompté pour l’été.
En psychologie cognitive, les connaissances naïves sont définies comme des représentations spontanées et implicites que les individus se construisent sur le monde, souvent dès l’enfance, sans recours à des enseignements formalisés. Influencées par des expériences personnelles et sociales, elles peuvent être utiles pour naviguer dans le quotidien, car elles apparaissent comme fonctionnelles et cohérentes chez l’individu. En revanche, elles sont souvent partielles, simplificatrices voire fausses.
Or, ces connaissances naïves constituent le creuset des messages diffusés par les créateurs de contenus sur les réseaux sociaux. En particulier, sur TikTok, les vidéos diffusées cherchent à capter l’attention des internautes, en privilégiant une forte connotation émotionnelle pour provoquer une viralité exponentielle. L’information qui y est transmise repose sur un principe bien connu en marketing : une exposition répétée des messages, quelle qu’en soit la valeur cognitive, influence les comportements.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces croyances simplificatrices sont d’autant plus difficiles à déconstruire qu’elles bénéficient d’une approbation collective, visible sous forme de « likes » par toutes les abonnées. Il apparaît donc nécessaire de mettre au jour le rôle joué par les connaissances naïves dans l’éducation corporelle des adolescentes afin de mieux saisir pourquoi certaines d’entre elles sont plus vulnérables que d’autres à ce type d’injonctions et mettre en place des interventions ciblées.
En outre, les connaissances naïves sont souvent résistantes au changement et aux discours scientifiques. Il s’agit alors de revisiter ces raccourcis cognitifs, fondés sur des liens de causalité erronés (du type : « Je ne mange pas et je serai heureuse cet été »), en proposant des messages de prévention plus adaptés à cette génération numérique.
Pour aller dans ce sens, certains professionnels de santé prennent la parole sur les réseaux sociaux, mais la portée de leur discours semble encore limitée au regard de la viralité suscitée par cette tendance. Face à ce constat, il semble opportun de les inviter à s’approprier davantage les codes de communication numérique pour s’afficher comme des figures d’autorité en matière de santé sur TikTok.
Plus globalement, il ne s’agit ni de diaboliser TikTok ni de prôner le retour à une époque sans réseaux sociaux. Ces plateformes sont aussi des espaces de création, d’expression et de socialisation pour les jeunes. Mais pour que les connaissances qu’elles diffusent deviennent de véritables outils d’émancipation plutôt que des sources de pression sociale, plusieurs leviers doivent être activés :
réguler, inciter davantage les plateformes à la modération de contenus risqués pour la santé mentale et physique des jeunes ;
apprendre aux adolescents à détecter de fausses évidences sur les réseaux sociaux. Dans cette perspective, notre projet Meals-Manger avec les réseaux sociaux vise à co-construire avec les jeunes une démarche leur permettant d’acquérir et d’exercer un esprit critique face aux contenus risqués pour leur santé, auxquels ils sont exposés sur les plateformes sociales ;
éduquer les éducateurs (parents et enseignants) qui sont souvent peu informés sur les comptes suivis par les adolescents et ont des difficultés à établir un lien entre des connaissances naïves diffusées sur les réseaux sociaux et les comportements adoptés dans la vie réelle.
Pascale Ezan a reçu des financements de l'Agence Nationale de la Recherche (projet ALIMNUM (Alimentation et Numérique et projet MEALS (Manger avec les réseaux sociaux)
Emilie Hoëllard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Louis Wiart, Chaire de communication, Université Libre de Bruxelles (ULB)
Comme l’indique l’expression « bien culturel », le livre est un produit, c’est-à-dire un bien qui s’achète et se vend. Toutefois, ses spécificités font qu’il évolue dans un environnement particulier qu’étudient notamment Louis Wiart et Philippe Chantepie, les auteurs d’Économie du livre, aux éditions La Découverte (collection « Repères »). Nous en publions un extrait consacré à un des défis majeurs du secteur pour les années qui viennent : l’adaptation de son modèle économique aux impératifs de la transition écologique. Numérique ou papier, le livre trouvera-t-il une voie pour être compatible avec ces nouvelles nécessités ?
Comme toutes les industries culturelles, le secteur du livre fait face au défi de la transition écologique, sous ses trois aspects : climatique, de biodiversité et de déchets. Celle-ci représente un enjeu majeur pour l’ensemble de la chaîne de valeur du livre : cycle de production (papier, donc énergie, eau, espèces végétales, formulation des encres), de distribution (transport) et de consommation (déchets). Elle concerne ainsi toutes les étapes de l’activité, de l’éco-conception au réemploi et au recyclage.
Le défi a commencé à être pris en compte à l’échelle internationale par le secteur de l’édition quant aux modes de production et de consommation, qui figurent parmi les objectifs de développement durable (ODD) de l’Agenda 2030 de l’Organisation des Nations unies (ONU) en 2019. Ce défi concerne aussi l’édition et la lecture numériques qui se développent et apparaissent moins favorables pour l’environnement que le mode de production et de consommation classique du papier.
En France, la mise en œuvre de ces objectifs de développement durable repose sur la règle dite de responsabilité élargie du producteur (REP). Elle prend en compte pour chaque industrie une responsabilité du producteur, de bout en bout, à travers chacun des maillons des filières jusqu’au consommateur. Selon le principe pollueur-payeur, il s’agit de rendre responsables les producteurs de l’impact environnemental de leurs produits en assurant individuellement ou collectivement la collecte, la gestion et la valorisation des déchets issus de ces produits (papier, encres).
Des filières REP sont établies pour le verre, le plastique, l’électronique… Le papier d’emballage depuis 1993 et le papier graphique concernent déjà le secteur de la presse depuis 2007. Le secteur de l’édition de livres échappe à cette approche de responsabilité élargie du producteur, le livre papier n’étant pas considéré comme susceptible de devenir un déchet ménager…
[Depuis la remise du manuscrit de ce livre, un plan de transition écologique sectoriel pour l’édition a été rendu public. (Précision des auteurs de l’ouvrage, ndlr)]
Depuis les années 2010 prédomine ainsi une prise de conscience progressive des enjeux de la transition écologique par les professionnels du livre, dont les éditeurs. Fragmentaire et partielle, l’approche dépend surtout d’initiatives issues de maillons de la chaîne à travers des engagements volontaires. Des initiatives d’abord individuelles ou de collectifs prévalent sur certains aspects de l’activité qui visent à promouvoir des modèles de production et de commercialisation de livres plus respectueux de l’environnement.
Ainsi, du côté de l’amont, la pression sur la disponibilité et le prix des matières premières (papier, énergie, eau et transport) est mise en avant, même si de nouvelles sensibilités à l’écologie s’expriment. De meilleures pratiques d’achat du papier progressent : 97 % du papier acheté par les éditeurs est certifié par des labels (PEFC, FSC) relatifs à la gestion durable des forêts, alors que le papier recyclé représente seulement 1 % du total.
La production de papier pour l’édition de livres n’est pas prise en compte par la REP papiers graphiques, ce qui constitue un segment particulièrement critique en consommation énergétique et d’eau, mais surtout en matière de transport. En effet, la production de papier provient essentiellement de pays étrangers, la France ayant un solde extérieur très négatif. En aval, du côté des librairies, on mise sur l’aménagement des lieux de vente (éclairage, chauffage, isolation, récupération de mobilier, etc.), l’optimisation des achats de livres pour diminuer les retours ou encore l’usage de produits à plus faible impact (emballages cadeaux, sacs en papier, etc.)].
Enfin, du côté des bibliothèques, sous l’impulsion de la Fédération internationale des associations et institutions de bibliothèques (IFLA), une approche collective prévaut aussi, ce dont témoigne par exemple l’Agenda 2030 des bibliothèques en France. Les objectifs poursuivis tiennent à la mutualisation des ressources entre établissements et à l’amélioration de la logistique pour réduire l’empreinte environnementale des prêts de livres. L’enjeu de la plastification des livres offerts au prêt est également soulevé. À l’avenir, ces initiatives sont conduites à tenir compte d’autres facteurs, comme le transport des consommateurs et des salariés.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
L’enjeu de la transition écologique de l’édition est surtout concentré sur les éléments les plus industriels du secteur, ce qu’illustre la part de production d’imprimerie hors de France (Espagne, pays d’Europe orientale, voire Chine). Sur le segment de la production et de la commercialisation, le défi de la transition écologique affecte le cœur du modèle économique structurel de l’édition de livres. En effet, l’industrie de l’édition repose sur une logique d’offre structurellement supérieure aux ventes, ne serait-ce que pour atteindre des publics qui, en situation de sous-production et insuffisance de distribution, ne seraient ni informés de l’existence de l’offre ni en mesure de se la voir proposer.
L’économie d’échelle issue de l’imprimerie ne constitue pas un frein à ce modèle. Aussi, l’ensemble de la chaîne de distribution (stockage et acheminement aller et retour vers les points de vente) se pérennise. Elle se traduit dans les volumes distribués comme dans ceux des retours, ainsi que dans les taux de pilon. Des outils d’intelligence artificielle (IA) pourraient aussi améliorer la gestion de la production, des stocks et des transports, mais leur propre impact environnemental n’est pas neutre.
La transition écologique peut apparaître comme un défi des plus difficiles à relever pour le secteur de l’édition. Celui-ci a manifesté une grande capacité d’innovation et d’adaptation aux techniques, mais à modèle économique central inchangé. Le défi écologique, en revanche, questionne les fondements mêmes de son modèle économique.
Cet article est issu de l’ouvrage Économie du livre (Ed La Découverte) écrit Philippe Chantepie les intertitres sont de la rédaction de The Conversation France
Louis Wiart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
À la veille de la finale de la Ligue des champions de l’UEFA, ce 31 mai, les projecteurs ne sont pas braqués que sur la pelouse. Dans les tribunes, les chants s’élèvent, portés par des milliers de voix en fusion. Et si le vrai spectacle était aussi là ? Plongée dans une ferveur collective où le chant devient un art et le stade, une scène culturelle à part entière.
Chanter ensemble, brandir des écharpes à l’unisson, participer à la ferveur collective : pour tous les supporters, aller au match de foot ne peut être réduit à une simple rencontre sportive. Cela relève d’un rituel esthétique où l’intensité émotionnelle, le sentiment d’appartenance et la communion se tissent dans l’expérience du stade. Être supporter est inséparable de l’action collective que l’on appelle football. L’intensité du chant des supporters donne au match une véritable portée culturelle, dans un double sens : artistique et anthropologique. Une double perspective qui inscrit le football dans une culture populaire.
La raison d’être du supporter réside dans cette quête d’intensité émotionnelle. Le terrain, le match, le jeu, les joueurs sont au centre, mais le chant amplifie le moment – le chant qui permet de vivre le match, la communion avec l’équipe, de devenir acteur : être le 12e homme dans la vibration collective.
La finalité sur le terrain est avant tout physique et compétitive ; l’expérience des tribunes, tout aussi physique, se construit, elle, dans l’émotion, l’attention et le plaisir. Trois termes qui, pour le philosophe Jean-Marie Schaeffer, définissent l’expérience esthétique. Avec le chant des supporters, l’expérience du match devient une pratique véritablement culturelle.
L’hymne du club, chanté en début de match, est un rituel en soi. Un chant au statut différent des encouragements communs qui durent toute la partie. Ce chant spécial est rituel en ce sens qu’il fait le lien entre deux réalités. Que les premières notes retentissent, et l’on bascule dans un autre monde : le monde du stade. Le poil se hérisse, le cœur bat plus fort, les larmes coulent. Chacun participe indistinctement, en chantant à tue-tête ! Et de la multitude des tons et des fausses notes mêlées s’élève, comme par magie, un chant toujours juste, reconnaissable entre tous : le chant des supporters.
Le chant, comme un précieux commun, a son histoire, liée à l’épopée du club, qui se confond avec celle d’une ville, d’une région. You’ll never walk alone à Liverpool (Angleterre), les Corons à Lens (Pas-de-Calais) ou, plus surprenant, Yellow Submarine des Beatles à Villarreal (Espagne) ! Avec cette intensité émotionnelle, pour tous les supporters, aller au stade devient un moment structurant de l’existence, un moment extraordinaire qui rompt avec la réalité et les difficultés quotidiennes. Aller au stade, c’est passer d’un monde prosaïque à la communion esthétique, au supplément d’âme (cher à Bergson), un moment sacré.
Aussi, dans les tribunes du stade d’Anfield, de Bollaert ou de Villarreal, la ferveur n’a rien d’un simple exutoire. Elle fait du stade un haut lieu d’un territoire. Elle est un langage, une manière d’habiter le monde et de s’y reconnaître. Elle témoigne d’une culture vivante, mouvante, ancrée dans les pratiques d’une ville, pour une grande partie de sa population. En cela, les supporters ne sont pas de simples amateurs de football : ils sont les acteurs d’une culture populaire, où le sentiment d’appartenance et la transmission de rites collectifs forgent une mémoire partagée.
Et devant l’harmonie collective, on ne peut que s’étonner de l’autorégulation de cette foule vociférante.
« Sans doute parce qu’un sentiment collectif ne peut s’exprimer collectivement qu’à condition d’observer un certain ordre qui permette le concert et les mouvements d’ensemble, ces gestes et ces cris tendent d’eux-mêmes à se rythmer et à se régulariser »,
écrivait le sociologue Émile Durkheim à propos du chant religieux.
À bien y regarder cependant, l’émotion des supporters est tout à fait cadrée, en particulier celle des plus ultras, rassemblés dans les Kops.
Tout au long du match – de manière peut-être plus exutoire, cette fois – les chants vont se succéder, au rythme d’une grosse caisse, mais surtout dirigés par la voix d’un meneur amplifiée par un mégaphone. Ce personnage, c’est le Capo, un chef d’orchestre, qui, dos à la pelouse tout le match, n’aura de cesse d’orienter la puissante mélodie du Kop.
« Notre match à nous, c’est de faire en sorte que l’ambiance soit top ! »,
déclare Popom, ex-Capo du Kop de la Butte, à Angers.
Ainsi, le match de football n’est pas qu’un jeu. Il est un théâtre d’émotions, une scène où se rejouent des récits communs et où se tissent des appartenances. Ce que vivent ces supporters, ce n’est pas uniquement un spectacle sportif, mais un moment de culture intégré à l’expérience du football, où l’intensité émotionnelle se déploie comme un art en soi. Une foule unie, un collectif. Au stade se croisent ainsi le sport et la culture, pour que, comme l’écrit la journaliste Clara Degiovanni, « en un seul instant partagé, les chants collectifs parviennent à entrecroiser et à sédimenter des milliers d’histoires et de destinées ».
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:27
Yannick Marandet, Directeur de recherches CNRS, Aix-Marseille Université (AMU)
La fusion nucléaire fascine et divise. Au-delà de la grande collaboration internationale ITER, mise en place dans les années 1980 afin de fournir un prototype de centrale électrique réellement utilisable pour alimenter le réseau en électricité, les avancées récentes ont fait apparaître de nouveaux acteurs dans le domaine, notamment des start-ups.
Pour faire le point sur les défis scientifiques et technologiques de la fusion, pour mieux comprendre comment les chercheurs et chercheuses vivent le fait de s’impliquer dans des projets de si longue haleine, Elsa Couderc, cheffe de rubrique Sciences et Technologies à The Conversation France, a rencontré Yannick Marandet. Chercheur en physique des plasmas, il a longtemps été directeur de la Fédération française de recherche sur la fusion par confinement magnétique (FR-FCM) et co-dirige aujourd’hui un grand projet de recherche sur les supraconducteurs et la fusion, financé par France 2030.
The Conversation : Vous travaillez sur la fusion nucléaire depuis vingt-cinq ans et vous avez pris diverses responsabilités pour coordonner les efforts français sur la fusion nucléaire, principalement orientés aujourd’hui vers la collaboration internationale ITER. Est-ce que vous pouvez commencer par nous expliquer ce qu’est la fusion nucléaire ?
Yannick Marandet : La fusion nucléaire, ce sont des réactions nucléaires qui sont à l’œuvre dans les étoiles, notamment dans le Soleil. C’est un peu comme des Lego : on assemble des petits noyaux pour en faire des plus gros. Ce sont en fait les processus par lesquels les éléments chimiques dont on est tous constitués, dont la Terre est constituée – comme le carbone, le fer ou l’oxygène – se sont formés dans des générations d’étoiles précédentes. D’où la fameuse expression, « Nous sommes tous des poussières d’étoiles ».
Ces réactions de fusion permettent de fabriquer des atomes plus gros, et ce faisant, elles libèrent de l’énergie contenue dans les noyaux que l’on assemble. Ainsi, dans une étoile en phase de vie normale, quatre noyaux d’hydrogène s’assemblent (l’élément le plus léger de l’Univers, un proton) pour faire un noyau d’hélium.
En fait, le terme hélium vient d’Hélios, car l’hélium a été découvert initialement en observant une éclipse solaire, en 1868. C’est intéressant de penser qu’on a trouvé de l’hélium dans notre étoile avant de l’observer sur Terre. Mais ce n’est qu’une fois qu’on a découvert cet élément sur notre planète, en 1895, qu’on a pu le peser et se rendre compte qu’il est un peu plus léger que quatre noyaux d’hydrogène – de l’ordre de 1 % plus léger. Cette masse perdue durant la transformation de l’hydrogène en hélium a été convertie en énergie : c’est la célèbre formule d’Einstein, E=mc2.
Comment est née l’idée d’utiliser ces phénomènes au cœur des étoiles pour générer de la chaleur, et donc de l’électricité ?
Y. M. : L’idée d’imiter ce qui se passe dans les étoiles est arrivée assez vite. Mais il faut savoir que les réactions de fusion nucléaire entre atomes d’hydrogène qui ont lieu dans les étoiles sont très inefficaces : les premières étapes de ces réactions sont tellement lentes qu’on ne peut même pas en mesurer la vitesse !
Il a donc d’abord fallu comprendre qu’on ne peut pas faire exactement ce que fait le Soleil, mais qu’on peut essayer de faire mieux, en utilisant des réactions qui sont plus rapides. Pour cela, il faut d’abord étudier comment marche une réaction de fusion.
Il faut d’abord faire se rapprocher les noyaux atomiques… malheureusement, ceux-ci se repoussent spontanément – plus ils sont gros, plus ils sont chargés et plus ils se repoussent. On a vu que la fusion de noyaux d’hydrogène à l’œuvre dans les étoiles n’est pas très efficace et, pour ces raisons, les réactions de fusion entre les isotopes de l’hydrogène ont été considérées. Les noyaux de ces isotopes ont par définition la même charge que l'hydrogène, mais contiennent un ou deux neutrons.
La solution actuelle – celle que l’on doit utiliser dans ITER – est arrivée dans le cadre du projet Manhattan – le projet de recherche du gouvernement américain qui visait à construire une bombe atomique, entre 1939 et 1947. Celui-ci se concentrait évidemment sur la fission nucléaire, mais ils ont assez vite pensé à rajouter une dose de fusion par-dessus. Pendant cette période, d’énormes progrès ont été faits en physique nucléaire parce qu’il y a eu de très gros moyens, très focalisés… ce qui a bénéficié au domaine de la fusion, même si c’est un héritage dont on n’aime pas nécessairement se réclamer.
Quoi qu’il en soit, quand les chercheurs du projet Manhattan ont commencé à faire fonctionner des réacteurs nucléaires, ils ont produit du tritium – l’isotope le plus lourd de l’hydrogène, avec deux neutrons. Et quelqu’un s’est rendu compte que le deutérium et le tritium, pour des raisons d'abord mystérieuses à l’époque, fusionnaient 100 fois plus vite que deux noyaux de deutérium.
Une réaction de fusion exploitable pour en faire de l’électricité avait été découverte.
Y. M. : Oui. Quand on fait une réaction deutérium-tritium, ça fait un noyau d’hélium cinq, extrêmement instable, qui se désintègre en un hélium quatre et un neutron. Ceux-ci vont extrêmement vite – l’énergie qu’on a perdue en masse se retrouve dans l’énergie de mouvement. En freinant ces particules, par collision dans la paroi de la machine, on va récupérer cette énergie, faire chauffer de l’eau et faire tourner des turbines.
Cette réaction deutérium-tritium a un énorme avantage, c’est qu’elle est beaucoup plus probable, et donc rapide, que les autres réactions de fusion nucléaire, comme la fusion de deux hydrogènes, observée dans le Soleil et dont on parlait précédemment… mais elle pose deux défis.
Le premier, c’est qu’elle utilise du tritium, qui est radioactif. Le problème n’est pas tant sa dangerosité, qui est limitée, mais plutôt sa demi-vie (le temps nécessaire pour que la moitié des atomes se désintègrent naturellement), qui n’est que de douze ans. De ce fait, c’est un élément très rare. Il faut le fabriquer pour s’en servir comme combustible – dans ITER par exemple, même si le plasma contiendra de l’ordre d’un gramme de tritium, il faudra stocker quelques kilogrammes sur site.
Le deuxième défaut de cette réaction, c’est qu’elle génère des neutrons de 14 mégaélectronvolts. Cette échelle peut sembler un peu absconse quand on n’a pas l’habitude de la manipuler : ce qu’il faut retenir, c’est que ces neutrons sont très énergétiques, suffisamment pour transformer des impuretés dans la paroi en éléments radioactifs. Et ça, c’est un défi – à tel point qu’aujourd’hui, un domaine de recherche entier est dévolu à développer des matériaux sans ces impuretés.
Pour la fusion deutérium-tritium, il faut utiliser ce neutron énergétique pour bombarder du lithium, et ainsi récupérer du tritium : on résout à la fois le problème d’approvisionnement en tritium et on produit de la chaleur supplémentaire par ces réactions.
Si l’on compare à une centrale à charbon de 300 MW électrique, qui brûle de 1 million à 2 millions de tonnes par an, l’avantage de la fusion est évident : il faut 30 kg de deutérium (l’océan en contient en quantité) et une centaine de kilos de lithium par an. Tout ça sans production de gaz à effet de serre ni déchets autres que la machine elle-même, et sans risques d’emballement.
Mais c’est aussi pour s’affranchir des problèmes liés aux neutrons énergétiques que différentes start-ups promettent aujourd’hui ce qu’on appelle la fusion « aneutronique », exploitant des réactions de fusion dans lesquelles on ne produit pas (ou peu) de neutrons. En n’utilisant pas de tritium, on aurait un carburant qui ne serait pas radioactif et pas (ou peu) de neutrons en sortie. La réaction de choix pour faire ça, c’est de fusionner un proton avec du bore (élément chimique dont le noyau compte cinq protons)… mais elle nécessite de monter à des températures dix à cent fois plus élevées que celles envisagées dans ITER, ce qui veut dire que ces start-ups devront obtenir des plasmas extrêmement performants.
À quelle température a lieu la réaction deutérium-tritium, celle qui doit être utilisée dans ITER ?
Y. M. : Cent cinquante millions de degrés ! Cette température est un vrai défi pour les scientifiques aujourd’hui.
Les plans initiaux de développement de la fusion, dans les années 1940 et 1950, étaient très optimistes… En effet, à l’époque, on ne connaissait pas très bien ce qu’on appelle aujourd’hui la « physique des plasmas ». À 150 millions de degrés, un gaz d’hydrogène de deutérium-tritium n’est plus un gaz ! C’est ce qu’on appelle un « plasma », c’est-à-dire un milieu suffisamment énergétique, suffisamment chaud, pour que tous les électrons soient arrachés de leurs noyaux. On se retrouve avec une soupe d’électrons et d’ions.
On pourrait penser que cette soupe est similaire à un gaz ; mais la grosse différence avec des molécules dans un gaz est que les particules chargées se sentent les unes les autres à grande distance. Ainsi, dans un plasma, si on bouscule un électron quelque part, tous les électrons autour vont le sentir, et bouger également… on comprend bien qu’il peut se passer des choses très intéressantes du point de vue de la physique !
Mais plus complexes aussi, surtout du point de vue des applications. Parce qu’un plasma est quelque chose d’assez compliqué à maîtriser, qui devient très vite turbulent.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Et justement, vous avez réalisé votre thèse au début des années 2000, sur l’analyse des plasmas turbulents. Quelles étaient les problématiques à l’époque ?
Y. M. : J’ai fait ma thèse sur la caractérisation de plasmas, en collaboration avec des collègues d’une expérience de fusion appelée à l’époque « Tore Supra » au CEA Cadarache, dans les Bouches-du-Rhône (cette machine est devenue West). J’analysais la lumière émise par les plasmas. Nous avions l’expertise d’analyse, de spectroscopie, et Tore Supra fournissait des plasmas ; ils avaient besoin de mieux comprendre ce qu’ils voyaient.
Une des grandes questions de la recherche sur la fusion a toujours été celle de la qualité du confinement. On utilise des champs magnétiques, générés par des électroaimants, qui confinent les particules chargées dans la machine. En effet, vous l’aurez compris, pour avoir des réactions de fusion, il faut chauffer le plasma. Mais c’est comme à la maison : si on allume les radiateurs à fond mais qu’on laisse les fenêtres ouvertes, la température dans la pièce ne va pas monter beaucoup. Si on ferme les fenêtres, ça va aller mieux, et si on isole mieux la maison, la température va monter plus haut pour la même puissance de radiateur. Dans notre cas, les champs magnétiques jouent un rôle d’isolant. Il faut réussir à isoler suffisamment pour que la température monte à 150 millions de degrés au cœur de la machine et que les réactions de fusion se produisent – après cela, ce sont ces réactions elles-mêmes qui chauffent le plasma.
La qualité de l’isolation est un peu la raison pour laquelle les gens étaient optimistes au départ : on pensait que la chaleur s’échapperait par conduction, c’est-à-dire sans mouvement du plasma, comme quand on pose quelque chose de chaud à un endroit, et que la chaleur passe dans les objets autour. En réalité, le plasma se met en mouvement, comme quand on chauffe de l’eau dans une casserole : il y a des cellules de convection dans la casserole, de la turbulence, qui font que l’eau monte, redescend, et que ça se mélange beaucoup mieux que par conduction ; ce qui mène à une perte de chaleur. Comprendre cette turbulence dans les plasmas est un fil directeur des études sur la fusion depuis longtemps.
La problématique de ma thèse était de mieux caractériser la turbulence en regardant certaines propriétés de la lumière émise par le plasma.
Comment ces problématiques ont-elles évolué au fil de votre carrière ?
Y. M. : La question du confinement magnétique du plasma est globalement beaucoup mieux comprise… mais, encore aujourd’hui, il reste des points difficiles.
En effet, on sait que lorsqu’on dépasse une certaine puissance de chauffage dans le plasma, celui-ci s’organise de manière un peu différente, dans un régime où cette fameuse turbulence qui nous embête se « suicide » au bord du plasma : elle génère elle-même des écoulements qui la suppriment. Ça permet de beaucoup mieux confiner le plasma, et ce régime de fonctionnement (au-dessus d’une certaine puissance de chauffe) a été appelé « le mode H », pour high confinement. C’est le mode d’opération qui a été prévu dans ITER.
Néanmoins, bien que l’on ait compris des aspects importants de son fonctionnement, on ne sait toujours pas prédire avec précision à quel niveau de chauffage la transition vers le mode H va se produire. Des lois empiriques, fondées sur les résultats des expériences actuelles, sont utilisées pour extrapoler à ITER. Cette situation n’est pas si inhabituelle, les avions volent bien que nous n’ayons pas percé tous les secrets de la turbulence autour des ailes. Mais mieux on comprend, plus on peut optimiser.
Pourquoi le mode H résiste-t-il aux efforts des physiciens depuis quarante ans ?
Y. M. : Très probablement parce qu’il implique des interactions entre des phénomènes à différentes échelles. Dans l’espace, on doit comprendre des mécanismes depuis les échelles millimétriques jusqu’au mètre ou à la dizaine de mètres (la taille de la machine) ; et dans le temps, depuis la fraction de microsecondes jusqu’à plusieurs secondes. Il est difficile de capturer toutes ces échelles de manière globale, de les intégrer les unes aux autres, de façon suffisamment générale pour être prédictives.
Ici aussi, on est dans une situation qui est très intéressante du point de vue de la physique, mais qui nécessite une modélisation extrêmement détaillée au niveau des processus microscopiques, car nous avons affaire à des milieux hors d’équilibre. La physique est très riche parce qu’elle implique des particules, des champs électromagnétiques, dans des configurations géométriques complexes. Elle est aussi très « non linéaire ». Pour simplifier, ceci signifie qu’on ne peut pas résoudre les équations à la main, de façon exacte : on approxime les solutions numériquement, avec des ordinateurs. La puissance de calcul disponible sur les très gros calculateurs a ainsi permis de grands progrès.
Ceci étant, malgré ces frustrations au niveau de la compréhension théorique, les expériences ont progressé et les performances des machines comme les tokamaks ont été multipliées par 100 000 depuis les années 1970 (en termes de « triple produit », une métrique qui mesure de la qualité de l’isolation).
La qualité de l’isolation tient-elle à la puissance des aimants ?
Y. M. : En partie. Disons que si on est capable de faire des champs magnétiques plus élevés, en principe, on est capable d’avoir un meilleur confinement. Mais, sur ITER, on a déjà poussé les champs magnétiques proche de la limite pour la technologie d’aimants utilisée, d’autant plus qu’il faut magnétiser un volume gigantesque – ITER fait 800 mètres cubes.
On utilise donc le second facteur pour améliorer l’isolation : on augmente la taille. Pensez au thé – on laisse le thé dans la théière parce qu’il y refroidit moins vite que dans une petite tasse. C’est pour ça que les machines comme ITER, les tokamaks, ont eu tendance à grossir avec les années. On peut dire que la taille d'ITER est directement liée à la technologie d'aimants utilisée.
Aujourd’hui, on entend pourtant parler de start-ups qui veulent faire des machines, des tokamaks, plus petites…
Y. M. : Tout à fait, avec l'idée que cela réduira très significativement le coût de construction. L'idée est d’utiliser une autre technologie d’aimants, plus récente que celle utilisée dans ITER et qui doit encore faire ses preuves. ITER utilise des électro-aimants supraconducteurs, c’est-à-dire à base de matériaux n’opposant aucune résistance au passage d’un courant électrique. On peut faire passer des courants gigantesques, des dizaines de milliers d’ampères, sans perte par chauffage… ce qui permet de faire des aimants très puissants. Mais pour être supraconducteurs, ces matériaux doivent être refroidis à -269 °C et ne doivent pas être plongés dans des champs magnétiques au-dessus de typiquement douze tesla (l’unité des champs magnétiques)
Dans les années 1980, des matériaux supraconducteurs à haute température critiques ont été découverts. Ces matériaux fonctionnent déjà bien à -195 °C, pour le grand public, c’est toujours très froid, mais cela simplifie beaucoup le refroidissement, car on peut utiliser de l’azote liquide.
Et si on utilise ces mêmes supraconducteurs entre -269 °C et -250 °C – ce qui est tout à fait possible, mais nécessite un frigo plus cher et plus encombrant –, on peut faire passer des courants deux fois plus importants que dans les supraconducteurs classiques et générer des champs magnétiques deux fois plus intenses… ce qui permet en principe de réduire la taille de la machine, sans perdre en qualité d’isolation !
C’est pour cela qu’un gros projet a été lancé au niveau français, un « PEPR » (un programme et équipement prioritaire de recherche) appelé SupraFusion, et dont vous êtes un des co-directeurs ?
Y. M. : Oui, SupraFusion s’attaque exactement à cette question : maîtriser la technologie des aimants supraconducteurs à haute température pour développer des applications sociétales – sachant que c’est la fusion qui est en train de tirer l’industrialisation de ces technologies avancées d’aimants supraconducteurs.
Que peut-on faire d’autre avec des aimants supraconducteurs à haute température ?
Y. M. : Il y a déjà un câble électrique d’alimentation de la gare Montparnasse qui utilise ces technologies-là, qui permettent de faire des câbles très compacts – très utiles lorsqu’il y a peu de place, en milieu urbain. On envisage aussi des dispositifs électrotechniques qui permettent de renforcer la stabilité des réseaux électriques (des « limiteurs de courant ») ; mais aussi des génératrices d’éoliennes plus légères, plus efficaces. En santé, on pourrait faire des IRM plus petits voire portables. En physique des particules, de nouveaux accélérateurs.
L’idée, c’est d’utiliser la fusion comme aiguillon – ce qu’on appelle l’« effet Formule 1 ». On s’attaque à quelque chose d’extrêmement difficile pour tirer l’innovation, et on attend un ruissellement sur beaucoup d’autres applications qui sont moins exigeantes.
Est-ce que vous sentez une évolution dans la perception de la fusion nucléaire par rapport à vos débuts ?
Y. M. : Quand je suis arrivé, c’était une phase un petit peu plus compliquée, la décision de construire ITER n’était pas acquise.
Enfant, je rêvais de devenir astrophysicien, mais j’ai finalement choisi de travailler sur la fusion parce que je voulais contribuer plus directement à la société.
Ceci dit, le chemin à parcourir vers l’énergie de fusion restait assez flou pour moi. J’étais focalisé sur ma thématique de recherche et il faut du temps pour acquérir une vision plus large des problématiques en jeu. L’importance du défi scientifique et l’impact qu’aura l’énergie de fusion étaient déjà bien perçus, mais cela restait avant tout pour moi un problème de physique, dont l’ambition me fascinait. Lors de mon postdoc à l’Université de Floride, je me souviens avoir été approché par un collègue qui m’a expliqué travailler avec une entreprise privée de fusion, Tri-Alpha Energy, et m’a encouragé à les rejoindre. Je crois que j’ai dû le dévisager comme s’il était un extraterrestre, cela me semblait complètement décalé ! Cette entreprise existe toujours (TAE Technologies) et génère des revenus en commercialisant des appareils d’imagerie médicale développés dans le cadre de ses recherches sur la fusion.
À l’heure actuelle, de nombreuses start-ups travaillent sur la fusion. Leur existence change la perception qu’ont le public et les décideurs : la physique est suffisamment comprise, et le travail sur ITER a suffisamment fait progresser la technologie pour se lancer dans la bataille de la commercialisation dès maintenant. Les années à venir vont être très intéressantes.
Il me semble, par ailleurs, observer la montée en puissance d’un courant de pensée hostile au progrès scientifique en général et à la fusion en particulier. Se doter d’une nouvelle source d’énergie est perçu comme néfaste – on s’entête dans une forme de fuite en avant alors qu’il faudrait juste être plus sobre. Il s’agit là d’une question de choix de société et le rôle des scientifiques est d’informer ces choix – pour ce qui concerne l’énergie, ma conviction est qu’il est plus sage de se donner les moyens d’agir. S’il devient vital d’extraire du CO2 de l’atmosphère en masse, les besoins énergétiques seront gigantesques et la fusion ne sera pas de trop !
Mais l’actualité de ces dernières années, à la fois géopolitique et climatique, a refocalisé l’attention du grand public sur la question de l’énergie, bien plus qu’au moment où j’ai débuté ma carrière. Il me semble que la fusion est perçue comme une partie de la solution. À mon sens le seul danger est que son développement soit utilisé comme prétexte pour ne pas réduire les émissions de gaz à effet de serre dès maintenant. Les moyens mis dans la fusion peuvent paraître énormes du point de vue de la recherche, mais il faut les comparer au coût de notre système énergétique. Il est alors clair que les ressources mises dans la fusion ne vont pas étouffer la transition énergétique.
Enfin, le projet ITER résulte de discussions entre Reagan et Gorbatchev – il y avait vraiment l’idée de développer cette source d’énergie dans un but de paix. Cette dimension de collaboration scientifique entre grandes puissances pour des applications au bénéfice de tous existe encore dans le monde multipolaire d’aujourd’hui et contribue à donner une image positive de la fusion magnétique.
Est-ce différent de faire de la recherche sur la fusion nucléaire dans un pays où la fission est si bien installée, par rapport à un pays où le mix énergétique n’inclut pas ou peu de fission ?
Y. M. : C’est une question intéressante. L’énergie de fusion sera une énergie pilotable décarbonée, qui est donc très utile pour stabiliser les réseaux électriques et garantir la continuité de l’alimentation. Il en va de même pour les centrales nucléaires actuelles, mais les réserves en uranium sont limitées, surtout dans un contexte de forte croissance du secteur. L’approvisionnement en uranium est l’une des raisons pour lesquelles la France relance aujourd’hui le programme de « réacteurs à neutrons rapides », une technologie de fission nucléaire. Certaines promesses de ces réacteurs sont similaires à celles de la fusion (avec sa capacité à produire de l’électricité pendant très longtemps sur les réserves actuelles, etc.) et ces réacteurs à neutrons rapides ont déjà produit de l’électricité en France (Superphénix). Par contre, cette technologie présente des risques comparables à ceux des centrales nucléaires actuelles. Quoi qu’il en soit, leur relance joue certainement un rôle sur la perception de l’utilité de la fusion à moyen terme au niveau des acteurs français du domaine.
Si l’on regarde ce qui se passe ailleurs, le Royaume-Uni investit lourdement dans la fusion et construit des réacteurs nucléaires EPR français en parallèle. La Chine a les moyens de développer toutes les technologies de front : les variantes de la fission, et plusieurs projets de fusion majeurs. De fait, on estime que la Chine dépense plus de 1,5 milliard d’euros par an pour son programme fusion, devant les États-Unis et l’Europe.
La situation est différente en Allemagne, qui est sortie du nucléaire et où la production pilotable est essentiellement assurée par des centrales au charbon et au gaz, qui émettent des quantités importantes de gaz à effet de serre. L’Allemagne s’est dotée récemment d’une feuille de route ambitieuse pour la fusion, dans l’optique de décarboner à terme cette part pilotable.
Le fait est que si la France investit lourdement dans l’énergie nucléaire, elle investit également dans la fusion : dans le projet ITER dont les retombées économiques sont majeures (6 milliards d’euros de contrats pour les industriels français à ce jour) et, en parallèle, dans l’étape suivante, à travers le projet de PEPR et le soutien à une start-up française du domaine, située à Grenoble, Renaissance Fusion.
Avec la fusion, les échéances semblent toujours lointaines – on parle de plasma dans ITER en 2035, de génération d’électricité pour alimenter le réseau à la fin du siècle. Est-ce que vous avez l’impression de vivre dans le futur en travaillant sur quelque chose qui n’arrivera pas d’ici la fin de votre carrière ?
Y. M. : Quelqu’un a comparé ça aux constructeurs de cathédrales. On travaille sur un projet dont les fruits ne seront pas nécessairement disponibles dans la durée de notre vie. On se met au service de quelque chose de plus grand. C’est une forme d’humilité, chacun apporte sa pierre ! Alors, il y a les boutades habituelles sur la fusion (« C’est pour dans trente ans et ça le restera »)… mais ce que je constate, c’est qu’il y a beaucoup de progrès, comme je vous le disais, sur les performances depuis les années 1970.
En ce moment, on progresse sur des aspects importants, comme le record de durée de plasma réalisé dans West cette année (1 337 secondes, soit 22 minutes).
En termes de performance sur le gain de fusion, les progrès ont été portés par nos collègues de la fusion inertielle, qui utilisent des lasers et ont obtenu des gains nets supérieurs à 1, c’est à dire que le plasma a produit plus d’énergie que ce qui lui a été apporté par les lasers. Sur ce point, pour la fusion magnétique, nous sommes dans une phase de latence, le temps qu’ITER soit finalisé. Je pense qu’une des raisons pour lesquelles ça prend autant de temps, c’est que les objectifs d’ITER sont extrêmement ambitieux : puisque on veut faire dix fois mieux qu’aujourd’hui en termes de performance, et le faire pendant mille secondes pour s’approcher du fonctionnement d’une centrale… alors que les records de performance actuels, en termes de gain, ont été atteints pour moins d’une seconde.
En d’autres termes, vous cherchez à faire dix fois mieux pendant mille fois plus longtemps…
Y. M. : Oui, et c’est important, parce que certaines start-ups promettent des choses bien plus tôt, mais sur des durées de plasma beaucoup plus courtes. Les résultats seront très intéressants, mais cela leur permet d’éviter pour l’instant des problèmes que l’on aura de toute façon, un jour ou l’autre, dans une centrale.
Mais je pense qu’on travaille en fait en parallèle, car ces start-ups poussent des technologies qui pourraient s’avérer clé pour la suite. Ma conviction, c’est que grâce à ces efforts combinés, l’étape « post-ITER » va beaucoup accélérer.
Yannick Marandet a reçu des financements d'AMIDEX, de l'ANR et de l'Europe.
28.05.2025 à 12:27
Bastien Bissaro, Chercheur sur la biodiversité fongique et les biotechnologies, Inrae
Fanny Seksek, Doctorante au Laboratoire de Biodiversité et Biotechnologies Fongiques, Inrae
Les déchets plastiques sont une plaie désormais bien identifiée. Certaines enzymes – des protéines très spécialisées, véritables nanomachines – sont capables de dégrader des molécules similaires aux plastiques de consommation courante.
Une enzyme microbienne, capable de s’attaquer à la barrière protectrice de plantes, a été détournée pour recycler le PET, un plastique dont on fait les bouteilles d’eau.
Chaque année, 400 millions de tonnes de plastiques sont produites sur Terre, soit la masse de 40 000 tours Eiffel. Environ 80 % de ces plastiques sont éliminés dans des décharges ou rejetés dans l’environnement. Les plastiques sont aujourd’hui indispensables à notre mode de vie moderne, car ils répondent à des besoins en matière de santé, d’habillement, d’emballage, de construction, de transport, de communication, d’énergie, etc.
Malheureusement, les plastiques (ou polymères synthétiques), principalement dérivés de ressources fossiles, posent cependant un problème écologique majeur en raison de leur faible taux de recyclage et de leur accumulation dans l’environnement. Différentes pistes de recyclage économe en énergie existent. S’il convient de garder à l’esprit qu’il n’y a pas de meilleur déchet que celui qui n’est pas généré, il faut aussi s’attaquer à dégrader les déchets déjà produits et ceux qui sont devenus indispensables.
En 2020, une étude a démontré qu’il est possible de recycler le PET – constituant principal de nombreuses bouteilles plastiques notamment – grâce à des enzymes, les « nanomachines du vivant ».
Pour commencer, expliquons ce qu’est un plastique : une succession de « perles » microscopiques (appelées monomères) qui sont assemblées en « colliers » (polymère), auxquels s’ajoutent diverses molécules chimiques. Le type de monomère, et son assemblage en polymère dictent la nature du plastique et ses propriétés.
Recycler les déchets plastiques implique donc soit de couper le polymère en monomères d’origine pour ensuite reformer de nouveaux colliers (on parle alors de recyclage chimique ou enzymatique), soit de broyer le déchet plastique pour le réagglomérer (on parle alors de recyclage mécanique).
Le recyclage chimique repose en général sur des procédés qui sont très gourmands en énergie et le recyclage mécanique produit souvent des matériaux de moindre qualité après retraitement.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
À lire aussi : Vers des plastiques biodégradables et recyclables ? La piste des « PHAs » progresse
Il est important de noter que moins de 10 % du plastique mondial est actuellement recyclé. Des technologies de recyclage qui sont à la fois moins gourmandes en énergie et plus propres sont donc très recherchées.
Face à ce constat, l’utilisation d’enzymes représente une solution (bio) technologique prometteuse.
En effet, les enzymes sont des outils indispensables du vivant : produites par tout organisme, ces protéines ont pour rôle de catalyser des réactions chimiques de manière très fine et contrôlée.
Les processus enzymatiques sont partout : de la digestion des aliments à leur transformation en énergie, en passant par la fabrication d’hormones et autres composés indispensables au fonctionnement des êtres vivants.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La force inégalée des enzymes, expliquant leur prépondérance comme nanomachines du vivant, est leur sélectivité : pour pouvoir assurer sa fonction et ne pas modifier son environnement de manière incontrôlée, chaque enzyme agit sur une liaison chimique bien déterminée, permettant ainsi d’obtenir des produits de réaction parfaitement contrôlés.
Et les plastiques dans tout ça ? De par leur introduction très récente dans l’environnement, les enzymes spécialisées dans la dégradation de plastiques synthétiques pétrosourcés sont encore (très) rares.
Cependant, la similitude de ces plastiques avec des polymères naturels récalcitrants qui, eux, peuvent être dégradés par certaines enzymes naturelles a donné à la communauté scientifique l’idée d’adapter ces dernières enzymes aux plastiques.
Un bel exemple de cette démarche est celui développé par l’entreprise française Carbios en collaboration avec les équipes de recherche du Toulouse Biotechnology Institute (TBI) pour le recyclage enzymatique du polyéthylène-téréphtalate (PET), un plastique largement utilisé dans la fabrication de bouteilles en plastique et de textiles.
Pour cela, ils ont utilisé une enzyme appelée « cutinase », spécialisée dans la dégradation de la cutine, qui est un polymère d’acide gras que l’on trouve communément à la surface de certaines plantes. Cette barrière protectrice est dégradée par certains pathogènes comme des bactéries et des champignons, qui produisent pour ce faire des enzymes spécialisées dans le clivage de ses chaînes. Comme les liaisons chimiques reliant les monomères constituant la cutine et le PET sont de même type (liaison ester), la cutinase testée s’est avérée avoir une activité (certes faible) de dégradation du PET.
Cela a constitué une base prometteuse pour ensuite améliorer l’activité de l’enzyme, par des méthodes dites d’« ingénierie protéique ». Cette stratégie a permis d’adapter l’enzyme à un procédé industriel, qui se déroule dans des conditions très lointaines des conditions naturelles de l’enzyme (température plus élevée, concentrations en polymère élevées, besoin de réaction rapide, etc.).
In fine, ce procédé enzymatique permet de récupérer les monomères du PET, qui peuvent ensuite être réutilisés pour synthétiser du PET « neuf » pour faire soit de nouvelles bouteilles, soit des vêtements. Si la variabilité des bouteilles et des textiles (additifs, colorants) peut impacter l’efficacité du procédé, les performances sont suffisamment bonnes pour justifier la construction d’une usine à Longlaville, en Meurthe-et-Moselle, débutée en 2024.
Bien que cette découverte soit prometteuse pour le déploiement d’enzymes dans le recyclage du PET, elle ne peut s’appliquer à tous les plastiques existants : à chaque liaison chimique son enzyme, puisque celles-ci sont hautement sélectives.
Pour chaque plastique que l’on souhaite recycler, c’est donc un nouveau défi. Les plastiques les plus abondants sur Terre que sont le polyéthylène (abrévié PE) et le polypropylène (abrévié PP) sont constitués de liaisons carbone-carbone très solides, les rendant totalement insensibles aux enzymes jusqu’ici découvertes. Cela reste donc rare de voir des success stories de recyclage enzymatique des plastiques, car c’est un sujet relativement récent qui va demander de nombreuses années de travail pour arriver à de nouvelles réussites.
Bastien Bissaro a reçu des financements de l'ANR.
Fanny Seksek a reçu des financements de l'ANR.