18.05.2025 à 18:10
Pierre Schapira, Professeur émerite, Sorbonne Université
Le 20 mai 2025, le japonais Masaki Kashiwara se verra remettre le prix Abel 2025, souvent qualifié de « Nobel des maths », à Oslo. Pierre Schapira a travaillé avec lui et évoque les travaux de ce mathématicien.
Masaki Kashiwara, mathématicien japonais de 78 ans, vient de recevoir le fameux prix Abel de mathématiques, un prix décerné tous les ans par le roi de Norvège sur proposition du comité Abel, celui-ci étant nommé par l’Académie norvégienne des sciences et des lettres. Ce prix célèbre la mémoire de Niels Henrik Abel (1802–1829), mathématicien norvégien de génie souvent comparé à Évariste Galois, et mort très jeune comme lui. Cette distinction se veut l’équivalent pour les mathématiques du prix Nobel, celui-ci n’existant pas pour les mathématiques pour des raisons qui restent obscures, scientifiques ou sentimentales (Alfred Nobel aurait pris les mathématiques en grippe parce qu’il était jaloux du mathématicien suédois Gösta Mittag-Leffler.). Bien sûr, les mathématiciens peuvent être récompensés par la médaille Fields, décernée tous les quatre ans à quatre lauréats qui doivent avoir moins de quarante ans le jour de leur consécration, mais ceci exclut toutes les découvertes tardives, quelle que soit leur importance.
En fait, Kashiwara aurait très bien pu (aurait même dû) obtenir la médaille Fields déjà lors du Ccongrès international des mathématiciens (ICM) de 1982, et s’il tel n’a pas été le cas, c’est sans doute que ses travaux étaient trop novateurs pour être compris à cette époque. Les travaux de Kashiwara s’inscrivent dans un vaste mouvement d’idées datant des années 1960, qui a vu les mathématiques passer de la théorie des ensembles à la théorie des catégories : on ne s’intéresse plus tellement à un espace constitué de points et muni de diverses structures, mais aux relations entre ces espaces.
On a maintenant des objets et des morphismes entre ces objets, des foncteurs entre catégories, etc. Cette théorie a pris toute sa force sous l’impulsion d’Alexander Grothendieck (1928–2014), visionnaire incontesté qui a dominé les mathématiques pendant la deuxième moitié du XXesiècle. Parallèlement à Grothendieck, Mikio Sato (1928–2023), mathématicien japonais non moins visionnaire, jette les bases (avec sa théorie des hyperfonctions) de ce que l’on appelle maintenant « l’analyse algébrique » : il s’agit de traiter les problèmes d’analyse (l’étude des fonctions, de leurs dérivées, de leurs diverses transformées, etc.) avec les outils de la géométrie algébrique. Il a l’intuition des D-modules, c’est-à-dire des modules sur l’anneau D des opérateurs différentiels. Un « module » sur un anneau est une manière de décrire un système linéaire : plusieurs inconnues vérifiant plusieurs équations linéaires à coefficients dans cet anneau. Un D-module n’est donc rien d’autre qu’un système d’équations aux dérivées partielles (EDP) linéaires. Notons que les idées de Grothendieck comme de Sato irriguent une bonne partie des mathématiques et de la physique mathématique d’aujourd’hui.
Dans sa thèse de master de 1970, Kashiwara, élève de Sato, alors âgé de 23 ans, fonde la théorie des D-modules et généralise en particulier le fameux théorème de Cauchy-Kovalevskaya (qui ne traitait à l’époque que le cas d’une équation à une inconnue). Dans les années 1970, Mikio Sato est à l’origine d’une nouvelle révolution, celle de l’analyse microlocale, donnant lieu au fameux article SKK (Sato-Kashiwara-Kawai). Une variété différentiable (un espace sans singularité) admet en chaque point un espace tangent que l’on peut imaginer comme l’espace des rayons lumineux issus de ce point, mais aussi un espace cotangent (l’espace de phase des physiciens), que l’on peut imaginer comme l’espace des murs empêchant la lumière de passer. L’idée de Sato est que beaucoup de phénomènes rencontrés sur une variété sont en fait la projection sur cette variété de phénomènes vivant dans l’espace cotangent et sont beaucoup plus faciles à analyser dans ce nouvel espace.
Kashiwara applique ces idées à l’étude des D-modules et obtient l’essentiel des résultats fondamentaux de cette théorie. Il montre en particulier que les D-modules permettent de formuler précisément la correspondance de Riemann-Hilbert et prouve cette correspondance en 1980 (après des résultats très importants mais partiels de Pierre Deligne). Il s’agit d’une « équivalence de catégories » entre, d’un côté, une classe de D-modules appelés holonomes réguliers et, de l’autre, une classe de faisceaux appelés faisceaux constructibles. Il s’agit donc d’un pont entre l’analyse et la topologie, pont d’où jailliront entre autres les fameux « faisceaux pervers ».
Les faisceaux sont un outil mathématique de première importance : ils permettent de traiter la dichotomie local/global, de calculer les obstructions qui bloquent le passage du local au global, mais aussi de définir des objets qui existent globalement mais non localement. Ils ont été créés par le mathématicien français Jean Leray (1906–1998), vers 1945, alors qu’il était prisonnier en Autriche. Leray, spécialiste de mécanique des fluides (et aussi précurseur de la théorie des distributions avec ses « solutions faibles ») ne voulait surtout pas faire des mathématiques qui pourraient servir en cette période de guerre. Cette théorie a été rendue plus accessible par Henri Cartan dans les années 1950 et a ensuite été profondément généralisée et formulée dans le langage des catégories par Grothendieck.
J’ai commencé à travailler avec Masaki Kashiwara vers 1978. Au début des années 1980, nous avons alors simultanément eu l’idée de la théorie microlocale des faisceaux, lui dans le cadre complexe via le foncteur « des cycles évanescents », moi dans une perspective purement réelle, motivé par les équations hyperboliques. Notre collaboration sur ce sujet culmine avec la publication du livre Sheaves on Manifolds, publié à plus de 3 000 exemplaires, sans compter une traduction en russe et une édition en Chine. L’idée est d’appliquer la vision de Sato aux faisceaux, et l’on définit ainsi le micro-support d’un faisceau comme les directions (dans l’espace cotangent) de non-propagation. Comme la « variété caractéristique » d’un D-module n’est autre que le micro-support du faisceau de ses solutions (dans le domaine complexe), la théorie des systèmes linéaires d’EDP devient pour une bonne part une sous-branche de la théorie microlocale des faisceaux. Les faisceaux, y compris dans leur version microlocale, sont désormais présents dans de nombreuses parties des mathématiques, y compris, depuis peu, en « topological data analysis », une branche très appliquée des mathématiques.
Mais l’espace cotangent a une structure très riche (connue depuis le XIXe siècle), c’est une « variété symplectique » et des mathématiciens américains (Tamarkin, Nadler, Zaslow) ont compris que si la théorie microlocale des faisceaux utilisait la géométrie symplectique, alors, inversement, elle pouvait être un outil extrêmement puissant pour résoudre des problèmes de cette théorie. Cette idée est à l’origine d’un nombre impressionnant de publications.
L’apport de Masaki Kashiwara aux mathématiques ne se limite pas à l’analyse microlocale, à la théorie des D-modules ou à la théorie microlocale des faisceaux. Il a fait une découverte fondamentale dans un autre domaine, les groupes quantiques. Il s’agit de déformations non commutatives d’algèbres liées aux systèmes intégrables qui sont apparues dans les années 1980 avec Vladimir Drinfeld, médaille Fields 1990, né en Ukraine en 1954, et Michio Jimbo, né au Japon en 1951, lui aussi élève de Sato. Dans ce domaine, Kashiwara introduit, vers les années 1990, les bases crystallines, des objets essentiellement combinatoires, qui deviennent un outil essentiel dans l’étude des représentations. Il a depuis les années 2000 une liste considérable de publications sur ce sujet avec de nombreux mathématiciens coréens.
Masaki Kashiwara a aussi des contributions très importantes dans bien d’autres branches des mathématiques. Il a montré avec Toshiyuki Tanisaki et Ryoshi Hotta la place centrale des D-modules en théorie des représentations, il a démontré avec Jean-Luc Brylinski la conjecture de Kazhdan-Lusztig et l’intérêt de la conjecture de Kashiwara-Vergne (bien que maintenant démontrée) est toujours d’actualité. En physique mathématique, il a étudié avec Takahiro Kawai les intégrales de Feynman à la lumière de l’analyse microlocale.
Le Prix Abel 2025 a plus de 300 publications à son actif et a plus de 70 co-auteurs, et s’il est toujours extrêmement actif, la relève de l’école de Sato est déjà en place. Citons en particulier Takuro Mochizuki qui a débloqué l’immense difficulté que posait l’étude des modules holonomes irréguliers, travaux pour lesquels il a reçu le prestigieux Breakthrough Prize 2021.
Masaki Kashiwara est un savant qui a profondément marqué les mathématiques depuis les années 1970. Son empreinte profonde restera.
Pierre Schapira ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.05.2025 à 12:18
Isabelle Sourbès Verger, Directrice de recherches au CNRS, historienne et géographe, Centre Alexandre Koyré, École des Hautes Études en Sciences Sociales (EHESS)
Isabelle Sourbès-Verger conduit une géographie des politiques spatiales depuis les années 1980 : en analysant les missions des grandes puissances spatiales, elle décrypte leurs enjeux sur le plan national et international.
Ce mois-ci, la Chine doit lancer sa mission spatiale Tianwen-2, qui a pour but d’aller chercher des échantillons sur un astéroïde. Cette mission s’inscrit dans un portefeuille spatial chinois très étoffé, avec des missions vers la Lune et vers Mars, de nombreux satellites pour observer la Terre, une station spatiale similaire à la station spatiale internationale, des plans pour installer une base sur la Lune, entre autres.
À cette occasion, Isabelle Sourbès-Verger a reçu Elsa Couderc, cheffe de rubrique Sciences et Technologies, pour décrypter la politique spatiale souvent méconnue de cette grande puissance. Cet entretien illustre également comment la science et l’exploration spatiale sont aussi un terrain géopolitique, des imaginaires collectifs au soft power.
The Conversation : La mission Tianwen-2 a pour destination l’astéroïde Kamoʻoalewa, dont elle va collecter des échantillons. Elle suit la mission Tianwen-1, qui est allée poser un rover sur Mars en 2021 – la Chine était la deuxième nation à le faire après les États-Unis ; et cette mission précède Tianwen-3, qui doit partir fin 2028 vers Mars et en ramener des échantillons, ce que personne n’a jamais encore fait à ce jour. Comment cette série de missions Tianwen illustre-t-elle la stratégie spatiale chinoise ?
Isabelle Sourbès-Verger : Pour comprendre les avancées spatiales chinoises, il faut se rappeler que la reconnaissance de la Chine comme puissance spatiale s’est faite lentement. Le premier satellite chinois est mis en orbite en 1971, avec presque quinze ans de retard par rapport à l’Union soviétique et aux États-Unis. Ce n’est qu’en 2003, plus de quarante ans après Gagarine, qu’un Chinois a accompli le premier vol spatial. Il y avait d’abord un fossé à combler. Ainsi, jusqu’à il y a dix ans, le mot d’ordre de la politique spatiale chinoise était de « rattraper », c’est-à-dire d’acquérir et de maîtriser les compétences que les autres grandes puissances spatiales maîtrisaient déjà : les États-Unis, bien sûr, dans tous les domaines, mais aussi la Russie – plutôt dans le spatial habité et le spatial militaire, et l’Europe ou le Japon, notamment sur le plan scientifique. Par exemple, la mission Tianwen-2, qui est d’aller chercher de la poussière d’astéroïde en se posant et en repartant (une manœuvre appelée « touch and go »), est quelque chose que les Japonais ont déjà effectué avec Hayabusa-1 dès 2010, puis avec Hayabusa-2 en 2020 – même si c’est rarement évoqué dans les médias.
Pendant longtemps, cette volonté de rattrapage transparaissait clairement dans les documents officiels de présentation des activités spatiales, les Livres blancs qui sortent tous les cinq ans depuis l’an 2000 en parallèle des plans quinquennaux. Ces documents détaillent ce qui a été réalisé et ce qui va être fait dans les cinq prochaines années, par catégorie : les lanceurs, l’exploration spatiale, les télécommunications, l’observation de la Terre, etc. On est dans une planification de pays communiste, qui assure des financements et des priorités stables. Cette continuité est un atout pour des programmes spatiaux qui se font dans la durée comme, par exemple, la réalisation de la station spatiale Tiangong – en orbite depuis 2021, soit plus de trente ans après la décision du programme et dix-huit ans après le premier vol d’un taïkonaute.
Mais dans le dernier Livre blanc, paru en 2022, le ton change nettement : la Chine souligne qu’elle va faire des choses qui n’ont pas été faites auparavant.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Et de fait, aujourd’hui, avec les plans d’aller chercher des échantillons sur Mars (Tianwen-3) et ceux déjà couronnés de succès, comme celui de ramener des échantillons de la face cachée de la Lune (Chang’e-6), on a l’impression que le fossé se comble. Les Chinois revendiquent-ils une forme de concurrence avec les autres grandes nations spatiales, dans une « course à l’espace » ?
I. S.-V. : Ce que j’observe, c’est qu’officiellement, les Chinois ne disent pas qu’ils sont en concurrence avec les États-Unis. Ils insistent plutôt sur la fierté nationale, le désir de reconnaissance en tant que puissance de premier plan – le fameux « rêve chinois » de Xi Jinping pour 2049. Ils ne veulent pas tomber dans le piège que leur tendent les États-Unis en les présentant systématiquement comme des compétiteurs acharnés. Ce n’est pas une priorité pour eux d’être les premiers à installer une base sur la Lune. Ils ont leur propre calendrier et ne sont pas prêts à accélérer pour le principe, car il s’agit d’abord de réussir la mission prévue aux conditions qu’ils se sont fixées.
L’Agence spatiale chinoise met en avant des notions comme la coopération scientifique internationale et l’ouverture. Strictement exclue depuis la fin des années 1990 par le Congrès américain de toutes les coopérations, y compris avec des pays tiers, qui impliquent des technologies américaines, la Chine s’affiche comme un modèle alternatif n’imposant aucune discrimination politique.
Si les États-Unis ont besoin d’un compétiteur dans l’espace pour justifier des budgets importants demandés au Congrès et pour démontrer au monde leur supériorité, la Chine n’a pas de raison de jouer un tel jeu. En revanche, cette communication américaine sur la « menace » chinoise dans l’espace est habilement exploitée en Chine avec des articles reprenant des citations de journaux américains annonçant que « des Chinois pourraient aller sur la Lune avant les Américains ». C’est un exemple que je cite souvent à mes étudiants pour qu’ils aient conscience des effets de boomerang possibles des discours médiatiques, mais surtout pour l’absurdité du propos, puisque la première mission lunaire restera à jamais la mission américaine Apollo-11. C’était en 1969, il y a plus de cinquante-cinq ans déjà !
Cela n’empêche pas que la Chine privilégie les missions spatiales spectaculaires comme caisse de résonance de ses capacités nationales. Elle a ainsi réalisé des « premières » remarquées en alunissant sur la face cachée de la Lune en 2019 (mission Chang’e-4) et en en rapportant des échantillons en 2024 (mission Chang’e-6). Ces missions étaient annoncées dès le Livre blanc de 2016 puis de 2022. Se poser sur la face cachée est plus compliqué pour communiquer avec la Terre, mais la Chine démontre ainsi qu’elle peut réaliser des missions totalement nouvelles. Surtout, en rapportant presque deux kilogrammes de sol lunaire de la face cachée, elle a suscité un très grand intérêt des scientifiques du monde entier, au point que la Nasa a dû intercéder auprès du Congrès pour que des chercheurs américains puissent postuler pour recevoir des échantillons… que la Chine leur a d’ailleurs accordé.
Qu’en est-il du « New Space » : existe-t-il en Chine des équivalents de SpaceX d’Elon Musk ou de Blue Origin de Jeff Bezos ?
I. S.-V. : Le « New Space » – un phénomène nouveau aux États-Unis à partir des années 2000, lié à l’émergence de sociétés privées qui n’appartiennent pas au monde du spatial traditionnel, mais plutôt à celui du numérique et qui privilégient l’innovation — a été stimulé par les gouvernements américains, afin de renforcer la compétitivité sur le plan international tout en garantissant une avance stratégique dans des secteurs clés. Les États-Unis nous répètent depuis dix ans que, hors du New Space, point de salut. En Europe, on est en train de considérer que c’est assez vrai ; au Japon aussi. Mais dans la mesure où l’écosystème spatial américain reste unique, ce ne sera pas possible d’être aussi performant.
Les Chinois, eux, disent qu’il faut soutenir la dimension commerciale du spatial, avoir des acteurs et des débouchés qui ne soient pas seulement étatiques, mais sans consentir d’efforts particuliers d’encouragement. Je pense qu’il y a quand même en Chine une idée très claire du spatial comme outil de souveraineté, et le poids des entreprises d’État – qui peuvent aussi créer des sociétés commerciales en parallèle – reste très fort.
Ce qui est intéressant d’ailleurs, c’est que, bien que le New Space chinois n’existe pas sur le modèle américain, ça n’empêche pas beaucoup d’experts occidentaux de faire comme si. Et je pense que, là, on touche à une vraie difficulté dans les grilles d’analyse, à savoir l’idée que le modèle américain serait universel.
Comment étudiez-vous la politique spatiale chinoise sans parler ou lire le chinois ?
I. S.-V. : C’est une difficulté récurrente sur tous mes champs de recherche, car je ne lis pas non plus le russe, le japonais ou le coréen. Ce n’est pas la seule raison, mais il est vrai que j’apprécie particulièrement de travailler sur le spatial indien qui a très longtemps utilisé l’anglais, une tendance en recul avec l’utilisation de l’hindi de plus en plus répandue, comme le souhaite le premier ministre Modi. En fait, j’ai toujours travaillé en binôme avec des collègues spécialistes du pays que j’étudiais et surtout je m’appuie sur des éléments factuels : je compte les satellites, je recense les programmes…
Les progrès de la traduction automatique vont sûrement aider les futurs chercheurs, mais cela ne réglera pas la question essentielle qui, selon moi, est de dénicher des indices dans des documents très différents, et de faire des vérifications croisées entre les annonces et les réalisations pour proposer une compréhension d’une politique spatiale nationale replacée dans son contexte.
En ce qui concerne Mars, une des ambitions des agences spatiales aujourd’hui est de ramener sur terre des échantillons de la planète rouge. Un créneau propice pour les lancements s’ouvre fin 2028, et les Chinois ambitionnent d’en profiter pour lancer leur mission de retour d’échantillons martiens, Tianwen-3. En parallèle, le plan de la Nasa et de ses partenaires, très complexe et ambitieux, est en train d’être revu à la baisse, voire reporté sine die…
I. S.-V. : Aujourd’hui, à la surface de Mars, il n’y a eu que des missions chinoises et américaines. Mais leurs engins ne font pas les mêmes choses du tout et n’ont pas eu la même durée de vie : l’expérience sur Mars des Américains est bien supérieure à celle des Chinois. La Nasa fait même voler un petit hélicoptère, un exploit technologique en soi ! De même, la mission de retour d’échantillons que les Américains envisagent de faire est beaucoup plus complète que celle des Chinois.
Les Américains et leurs partenaires – dont les Européens – ont prévu de récupérer des échantillons prélevés par le robot Perseverance sur différents sites martiens. L’objectif est de construire des briques pour répéter des allers-retours. Cela suppose de disposer à terme de ressources d’ergols (du carburant), de les déposer et les stocker préalablement sur la planète… à défaut de les fabriquer sur place, qui serait l’étape ultime. Le programme actuel sur la Lune, Artemis, est conçu comme une répétition des opérations martiennes, dans des conditions moins complexes – mais qui coûte tout de même près de 10 milliards de dollars par an environ, si on inclut les lancements.
Quoi qu’il en soit, si les Chinois deviennent la première nation à ramener des échantillons de Mars, ils auront accompli quelque chose de majeur.
Si, et seulement si, cette mission réussit ! Car il y a beaucoup d’échecs en ce qui concerne les missions spatiales d’exploration…
I. S.-V. : On touche là au grand marqueur des missions chinoises. J’ai comparé les missions d’exploration spatiale depuis le début de la conquête spatiale, et plus précisément ce qui est annoncé par les agences spatiales et ce qui est finalement réalisé : le taux d’échec moyen est de presque 50 %.
Or, aujourd’hui, les missions chinoises ont 100 % de réussite. Certes, les moyens actuels ne sont pas ceux d’il y a cinquante ans : les ordinateurs sont plus puissants, les composants sont plus fiables, on profite des retours d’expérience, etc. Mais malgré cela, le taux de réussite et les résultats sont impressionnants.
La force de la démarche chinoise, c’est de combiner les compétences acquises, sans forcément chercher à chaque fois une rupture technologique à la mode américaine. Le plan chinois pour ramener des échantillons de Mars s’appuie ainsi sur plusieurs expériences : ils ont déjà posé un rover sur Mars en 2021 ; la collecte d’échantillons a déjà été faite sur la face visible et la face cachée de la Lune ; la mission Tianwen-2 vers un astéroïde va tester d’autres technologies.
Le taux de réussite des missions d’exploration est vraiment la preuve que le secteur spatial chinois est mûr, fiable et bien organisé. C’était un vrai défi quand on sait qu’ils ont développé leurs capacités spatiales en autonomie complète.
Depuis l’élection de Donald Trump, si on peut sentir l’influence d’Elon Musk pour pousser certains aspects de la conquête spatiale, il y a aussi des coupes budgétaires importantes à la Nasa. Les changements politiques aux États-Unis peuvent-ils affecter la politique d’exploration spatiale chinoise ?
I. S.-V. : Les Chinois peuvent simplement faire ce qu’ils ont déjà prévu de faire : aller sur la Lune, y installer une base automatique, aller chercher des échantillons sur Mars. De toute façon, ils vont continuer à progresser étape par étape. Les programmes sont en cours de réalisation et ils ne seront pas arrêtés.
La situation était différente il y a quinze ans. Je me souviens très bien que j’étais à une conférence à Pékin en 2010 au moment où Obama avait arrêté le programme Constellation de retour sur la Lune. À cette époque, la communauté spatiale chinoise avait été très inquiète, craignant que l’argumentaire de Barack Obama – pourquoi revenir sur la Lune, nous avons déjà réalisé cet exploit il y a plusieurs décennies – n’incite le pouvoir politique chinois à ralentir son soutien financier. Un des participants prétendait même qu’Obama avait pris sa décision pour empêcher que la Chine ne poursuive ses efforts !
Je dirais qu’aujourd’hui la situation est délicate aussi pour les États-Unis. Si le président Trump décidait demain que la Lune est une priorité moindre, car l’urgence c’est Mars, le risque serait que la station internationale de recherche scientifique sino-russe se retrouve, de fait, seule à fonctionner sur la Lune. Cela ne manquerait pas de poser un problème d’image pour les États-Unis après tous leurs discours sur la nécessité d’empêcher une « colonisation » chinoise.
Du fait du caractère très politique aujourd’hui des programmes d’exploration, il y a inévitablement des effets d’influence des uns sur les autres. La question est celle du financement global disponible et des priorités dans sa répartition. Comme l’économie chinoise est quand même un peu moins efficace qu’elle ne l’a été, il peut y avoir des arbitrages, des équilibrages… mais le cadre quinquennal continuera à lisser les changements éventuels de cap.
J’en profite pour mentionner que le budget du spatial américain est, depuis longtemps et toujours aujourd’hui, absolument considérable en comparaison des budgets des autres pays : il atteint environ 70 milliards ou 80 milliards de dollars – ce qui est peu par rapport au budget total de la défense par exemple, mais énorme par rapport à celui de la Chine, évalué à environ 20 milliards. Ajoutons 18 milliards pour l’Europe, autour de 4 milliards ou 5 milliards pour le Japon et la Russie, et 2,5 milliards pour l’Inde. Au total, les États-Unis dépensent plus dans le spatial que toutes les autres puissances spatiales réunies. Les Chinois sont parfaitement conscients de ce hiatus, d’où le choix d’autres démarches.
Les coupes budgétaires américaines affectent aussi massivement d’autres agences fédérales qui impliquent le spatial pour observer la Terre, son environnement, son climat…
I. S.-V. : Les Chinois ont une position bien différente de celle du président Trump vis-à-vis de l’écologie. Le changement climatique renforce les risques naturels déjà importants, la désertification avance et le développement économique qui conditionne la stabilité du système politique chinois fait qu’il y a une vraie sensibilité à la question du développement durable. Or, les satellites sont des atouts essentiels pour la compréhension et le suivi du climat, mais aussi pour la gestion des crises majeures liées à des événements extrêmes.
Mais un autre facteur est celui des relations internationales : si les États-Unis se retirent des programmes sur le climat, la place de la Chine va devenir plus importante dans le soutien aux recherches d’une communauté scientifique internationale très inquiète. Autant les Européens auraient du mal à s’allier avec la Chine pour aller sur Mars alors qu’ils se sont engagés avec la Nasa, autant, sur le climat, ce serait moins compliqué. La Chine réalise déjà des missions en coopération internationale, et elle fait très attention à ne pas imposer des contraintes politiques identiques à celles que pratiquent les États-Unis. De plus, les recherches sur le climat bénéficient d’une image positive globale et la Chine y trouvera certainement une opportunité de soft power en plus de satisfaire ses propres préoccupations.
Donc oui, je pense que l’étude de la planète Terre depuis l’espace est un élément sur lequel la Chine peut vraiment capitaliser. Et ça ne coûte pas si cher que cela, en plus : un satellite scientifique, ce n’est rien par rapport à un programme de station et de vols habités.
Quelle place prend l’espace dans l’imaginaire chinois, dans la culture populaire ?
I. S.-V. : Les Chinois n’ont pas eu d’instant Apollo : en 1969, en pleine Révolution culturelle, ils ne regardaient pas la télé (qu’ils n’avaient pas) pour voir Neil Armstrong faire son « grand pas pour l’humanité ». En 2003, j’étais en mission en Chine juste après le premier vol habité chinois. C’était intéressant de se rendre compte que les gens étaient fiers, mais en même temps très conscients de leur retard – ils disaient eux-mêmes qu’ils arrivaient après Gagarine et les autres.
Aujourd’hui, c’est autre chose. La communication médiatique sur la Lune et sur Mars est très présente, et la perception du spatial par le grand public en Chine évolue énormément depuis les réussites des missions d’exploration. Les journaux chinois ont bien insisté sur le fait qu’aller sur la face cachée de la Lune était une première, et que les scientifiques du monde entier ont demandé à pouvoir accéder à ces échantillons. Cet intérêt international voulu a beaucoup compté pour l’image que la Chine se fait d’elle-même comme grande puissance en devenir. On en revient au « rêve chinois », une Chine au tout premier rang des nations en 2049.
La communication autour du spatial chinois est aussi beaucoup plus ouverte. La nouvelle base de lancement spatial de Hainan – qui vient s’ajouter aux bases historiques de Xichang et Taiyuan – est un pôle très visible de la modernité du spatial chinois et de toutes les grandes missions d’exploration, avec des initiatives pour développer du tourisme autour des lancements.
La scénarisation par Elon Musk des tests de ses lanceurs réutilisables, les discours sur l’exploration, la place accordée à l’innovation, l’autorisation de création d’entreprises avec des capitaux publics et privés font que l’espace est aussi redevenu à la mode comme défi technologique.
Et enfin, vous avez des dessins animés, des robots qui parlent, des images de taïkonautes dans des publicités pour des banques, etc. Le secteur suscite beaucoup plus d’enthousiasme, notamment sur les réseaux sociaux.
Le spatial a aujourd’hui toute sa place dans l’imaginaire chinois. Il participe indéniablement de la fierté nationale et contribue efficacement à la reconnaissance internationale des compétences nouvelles acquises par la Chine.
Isabelle Sourbès Verger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.05.2025 à 12:18
Marie-Béatrice Forel, Maître de Conférences, Centre de Recherche sur la Paléobiodiversité et les Paléoenvironnements, Muséum national d’histoire naturelle (MNHN)
Pierre Sans-Jofre, Maître de conférences en géologie, responsable de collection de géologie et minéralogie, Muséum national d’histoire naturelle (MNHN)
Dans leur nouveau livre Grands Froids. Mémoires des pôles, paru dans la collection « Cabinet de curiosités » des éditions du Muséum national d’histoire naturelle, Marie-Béatrice Forel (micropaléontologue) et Pierre Sans-Jofre (géologue) retracent l’exploration des contrées polaires.
Ce livre, richement illustré de photographies d’artefacts du Muséum, fait découvrir les expéditions de grands noms – Dumont d’Urville, Paul-Émile Victor – et d’inconnus qui ont contribué à mieux connaître les zones les plus reculées de notre planète. Extrait.
De mémoire d’homme et d’historien, pôle Nord et pôle Sud ont toujours suscité fascination et attirance. Le plus ancien explorateur dont l’histoire ait gardé mémoire est Pythéas, ou Pythéas le Massaliote, qui vécut entre 380 et 310 av. J.-C. Il se lança dans un voyage exceptionnel à une époque où le détroit de Gibraltar, qu’on appelait alors les « colonnes d’Hercule », marquait l’extrémité occidentale du monde civilisé : parti de Marseille, il franchit ce détroit pour explorer l’Atlantique nord. Ce voyage lui aurait permis de confirmer que la durée des jours augmente à mesure que l’on monte vers le nord en été. Surtout, Pythéas aurait été le premier navigateur à avoir atteint « Thulé », où, au solstice d’été, le soleil ne se couche pas. Ce lieu reste incertain, mais il pourrait correspondre aux îles Shetland, à la Norvège ou à l’Islande. Le voyageur aurait même pour la première fois décrit un paysage polaire où il est impossible de naviguer, faisant peut-être référence à la banquise.
Plus tard, entre 800 à 1040 apr. J.-C. environ, les Vikings explorèrent une grande partie du nord-ouest de l’hémisphère Nord à bord de leurs solides navires, les knarr, particulièrement adaptés à la navigation en haute mer. Le Norvégien Erik le Rouge aurait été le premier à naviguer jusqu’au Groenland, où il se serait installé aux alentours de 983. Son fils, Leif Erikson, fut le premier Européen à poser le pied en Amérique, en atteignant Terre-Neuve et les côtes nord-américaines.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Quelques centaines d’années après, à partir du XVe siècle, les Européens commencèrent à chercher des voies maritimes pour atteindre l’Asie sans traverser le Proche-Orient. L’hypothèse de l’existence d’un passage au nord du continent américain, le « passage du Nord-Ouest », fut émise par le navigateur vénitien Giovanni Caboto dès 1497. S’ouvrirent alors environ trois siècles d’exploration à la recherche de cette fameuse voie, jalonnés de nombreux naufrages mais aussi de découvertes majeures comme celles de l’estuaire du fleuve Hudson en 1524 et de l’estuaire du Saint-Laurent en 1534. Ce n’est qu’en 1906 que le passage du Nord-Ouest fut franchi, par le Norvégien Roald Amundsen. Une voie vers l’Asie passant par le nord de la Scandinavie et de la Russie, le « passage du Nord-Est », fut également recherchée ; après de nombreuses tentatives infructueuses, elle fut découverte par le Finlandais Adolf Erik Nordenskiöld en 1879.
L’existence de l’Antarctique avait quant à elle été théorisée dès l’Antiquité par les savants grecs : un continent austral gigantesque devait exister pour contrebalancer les masses continentales de l’hémisphère Nord… Cette Terra Australis incognita figurait ainsi sur de très nombreuses cartes européennes dès le XVe siècle, bien avant la véritable découverte de l’Antarctique, au début du XIXe siècle. Jusqu’à cette époque, de nombreuses expéditions avaient été envoyées à la recherche de ce territoire et d’un passage éventuel de l’Europe à l’Asie, cette fois par le sud. Elles avaient permis, outre des observations d’eaux couvertes de glaces et d’icebergs, des découvertes majeures : en 1498, le Portugais Vasco de Gama dépassa pour la première fois le cap de Bonne-Espérance, à la pointe sud du continent africain ; en 1616, le cap Horn, à l’extrémité de la Terre de Feu, fut franchi par les Néerlandais Willem Schouten et Jacob Le Maire ; en 1772, le Français Yves Joseph de Kerguelen de Trémarec découvrit un archipel, plus tard nommé « îles Kerguelen » en son honneur par le Britannique James Cook. C’est un autre Britannique, William Smith, qui le premier cria « Terre ! » en apercevant l’Antarctique le 19 février 1819, ouvrant la voie à l’exploration de ces régions aussi envoûtantes qu’inhospitalières. Il fallut ensuite attendre 1840 et les observations de l’Américain Charles Wilkes pour qu’une certitude émerge : il s’agissait d’un continent, et non d’un archipel.
La reconnaissance et l’exploration de l’Antarctique furent très progressives. De nombreuses expéditions se succédèrent, repoussant toujours un peu plus loin l’avancée dans cette terre de glace et le champ de la description scientifique. Il est impossible d’évoquer ici tous les voyages, tous les efforts, tous les courages et toutes les peines des équipages qui embarquèrent en direction du « continent blanc ». Certaines expéditions constituèrent toutefois des jalons particulièrement importants, aussi bien par les découvertes géographiques qu’elles occasionnèrent que par leurs collectes scientifiques, marquant ainsi des étapes majeures de la construction des savoirs naturalistes des régions polaires, dont les collections du Muséum national d’histoire naturelle sont des témoins et garants pour les générations futures.
C’est le cas de l’expédition conduite par Nicolas Thomas Baudin, partie du Havre le 19 octobre 1800 à bord du Géographe et du Naturaliste en direction des mers du Sud, au-delà du cap de Bonne-Espérance. Les deux corvettes n’atteignirent jamais l’Antarctique ni le cercle polaire, mais elles permirent aux savants embarqués de réaliser les premières descriptions véritablement scientifiques d’un grand nombre de territoires austraux, comme l’Australie, alors appelée « Nouvelle-Hollande ». L’expérience de ces scientifiques permit également de poser des bases pour les explorations ultérieures.
À bord de l’Astrolabe et de la Zélée, entre 1837 et 1840, l’expédition menée par Jules Dumont d’Urville marqua non seulement la découverte de la terre Adélie, mais aussi la constitution des toutes premières collections du Muséum consacrées à l’Antarctique. Les scientifiques qui faisaient partie du voyage représentaient toutes les disciplines des sciences naturelles : chirurgiens, préparateur anatomiste, hydrographes, dessinateurs, zoologistes, botanistes…
L’expédition avait reçu deux missions : explorer le Pacifique et naviguer le plus loin possible au sud en direction de l’Antarctique, jusqu’à trouver le pôle Sud magnétique, dont la localisation fut calculée pour la première fois par un membre de l’équipage, l’hydrographe Clément Adrien Vincendon-Dumoulin. Ces mots rédigés par Dumont d’Urville en 1845 dans le Voyage au pôle sud et dans l’Océanie sur les corvettes l’Astrolabe et la Zélée reflètent l’état d’esprit des explorateurs, avides de découvertes :
« Nous nous mîmes aussitôt à l’œuvre, afin de recueillir tout ce que cette terre ingrate pouvait offrir de curieux pour l’histoire naturelle. »
L’Astrolabe et la Zélée quittèrent Toulon le 7 septembre 1837 et atteignirent le détroit de Magellan, au sud du Chili, à la fin du mois de novembre. Sur la route, les savants réalisèrent nombre d’observations et d’études naturalistes et géographiques, enrichissant de façon considérable les connaissances de l’époque sur la biodiversité, aussi bien continentale que marine, grâce à de nombreuses collectes de mollusques, d’échinodermes, d’insectes, de reptiles, d’oiseaux, de mammifères, de végétaux, de roches, de sables. Ces collectes permirent par exemple de décrire Usnea magellanica, une espèce de lichen qui « croît en longues barbes sur les branches […] mortes », nommée en référence à la terre, pleine de promesses scientifiques, sur laquelle celle-ci fut découverte.
Ce n’est que plus tard, le 20 janvier 1840, après l’exploration du Pacifique, que la terre antarctique fut aperçue. Le 21 janvier, un groupe d’hommes foula le sol de ce qu’ils nommeraient le « rocher du Débarquement », un îlot situé au nord-est de l’archipel de Pointe-Géologie, dans la mer Dumont-d’Urville, au sein de la zone de l’océan Indien qui borde la terre Adélie. Ce nom de « Pointe-Géologie » peut étonner ; il fait référence aux roches prélevées lors du débarquement qui illustrèrent pour la première fois la diversité géologique du continent antarctique, la « charpente géologique de ces terres », selon les mots de Dumont d’Urville lui-même. En 1841, plusieurs kilogrammes de ces roches décrites comme des gneiss (et aujourd’hui identifiées comme des paragneiss et amphibolites) ont été déposées au Muséum. La nature de ces roches et les mécanismes de leur formation ont été précisés récemment : une équipe rassemblant des scientifiques français et italiens a pu démontrer, par comparaison, que d’autres roches déposées dans d’autres institutions françaises ne provenaient pas de l’Antarctique. Plus d’un siècle plus tard au même endroit, en 1951-1952, l’explorateur Paul-Émile Victor édifia la station Pointe-Géologie à la demande de Jean Prévost, titulaire de la chaire de zoologie (« Mammifères et oiseaux ») du Muséum, pour étudier la biologie du manchot empereur (Aptenodytes forsteri). Les marins revinrent en Europe avec quelques manchots Adélie qui permirent la description de cette espèce, alors appelée Catarrhactes adeliae et aujourd’hui classée dans le genre Pygoscelis. Son spécimen type (c’est-à-dire celui-là même, unique au monde, à partir duquel l’espèce a été décrite) est conservé dans les collections du Muséum.
La richesse des collections rapportées par l’expédition Dumont d’Urville et des recherches et découvertes qu’elles ont permises est vertigineuse. Citons un seul chiffre : ce ne sont pas moins de 180 espèces de mollusques gastéropodes qui furent décrites à la suite des collectes menées tout au long du trajet des deux corvettes ! Si Dumont d’Urville et son équipage ne parvinrent pas à atteindre le pôle magnétique, leur contribution aux sciences naturelles est immense : bien que collectés il y a presque deux cents ans, les échantillons qui servirent de référence à la description de toute cette biodiversité et cette géodiversité alors encore inconnues sont toujours précieusement conservés au Muséum et fréquemment consultés par des chercheurs du monde entier, qui continuent à les étudier grâce à l’amélioration constante des méthodes et des instruments d’analyse.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.05.2025 à 12:18
Yaël Nazé, Astronome FNRS à l'Institut d'astrophysique et de géophysique, Université de Liège
Contrairement aux étoiles, la couleur de la planète rouge ne reflète pas sa température, mais sa composition. Une nouvelle étude apporte des éléments qui modifient notre compréhension de l’histoire de Mars.
Quand on observe le ciel nocturne, il n’est pas évident de distinguer les couleurs des astres. Souvent, ils apparaissent comme de simples points blancs. Quelques objets font exception à la règle, et Mars est certainement le meilleur exemple. Sa teinte rougeâtre est si évidente qu’elle a été associée au sang et, partant, au dieu de la guerre, dès l’Antiquité – Nergal en Mésopotamie, Arès en Grèce, Mars à Rome, Mangala en Inde, Horus rouge en Égypte.
La couleur de Mars reflète en fait la couleur de son sol. Cela ne doit rien à la température, contrairement à un morceau de fer chauffé, car il fait plutôt frisquet là-bas : la température est en moyenne de -60 °C, et dépasse rarement les 25 °C.
Si ce n’est pas une question de température, ce peut être la composition, car il existe des choses naturellement rouges, en particulier le fer oxydé, autrement dit la rouille… Notons toutefois que cela implique une évolution, car la rouille s’installe petit à petit — Mars, autrefois, était gris !
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
L’idée de la rouille n’est pas nouvelle : elle a déjà été proposée en 1934. Toutefois, le terme d’« oxyde de fer » est un peu vague – il en existe de nombreuses sortes. Alors, depuis, les scientifiques se demandaient quel oxyde de fer était le responsable de la couleur martienne…
Certains ont avancé l’idée qu’il s’agirait d’hématite, et il est vrai que ce composé a été trouvé sur Mars, notamment sous forme de « myrtilles ». L’hématite se formant dans des conditions sèches, son apparition se serait produite sur Mars assez récemment.
Cependant, de nouvelles analyses viennent d’être dévoilées. Elles ont comparé la signature (spectrale) du sol martien avec divers composés élaborés en laboratoire.
Et là, surprise ! L’hématite ne représente pas très bien la signature observée. Il faut donc se tourner vers d’autres oxydes et ceux qui s’approchent le plus des signatures spectrales observées sont des oxydes de fer hydratés (ferrihydrite) mélangés à du basalte (une roche typique des zones volcaniques martiennes).
Cela change complètement l’histoire envisagée ! Le rouge martien se serait alors formé il y a très longtemps, quand l’eau liquide coulait en abondance sur Mars… Érodées, les roches hydratées auraient ensuite émis de la poussière rouge qui se serait répandue sur l’ensemble de la planète grâce aux vents.
Yaël Nazé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.05.2025 à 12:18
Mark Lorch, Professor of Science Communication and Chemistry, University of Hull
Saviez-vous que la fumée noire qui s'échappe quand aucun pape n'a encore été choisi vient d'une combustion dite « incomplète » ? Connaissez-vous les recettes du Vatican pour communiquer depuis la chapelle Sixtine ?
Début mai 2025, 133 cardinaux se sont réunis au Vatican pour élire le nouveau chef de l’Église catholique. Au cours de leurs délibérations, les seules indications de leur progression ont été les panaches de fumée qui s’échappent régulièrement d’une cheminée installée sur le toit de la chapelle Sixtine.
La tradition veut que la fumée noire indique que les cardinaux ne se sont pas encore mis d’accord sur un nouveau souverain pontife, tandis que la fumée blanche signale qu’un nouveau pape a été élu. Mais de quels types de fumées s’agit-il exactement ? Voici un coup d’œil sur la science des fumées du Vatican.
La tradition selon laquelle les cardinaux brûlent leur bulletin de vote pour préserver le secret remonte au moins au XVᵉ siècle. Toutefois, ce n’est qu’au XVIIIe siècle, lorsqu’une cheminée a été installée dans la chapelle Sixtine pour protéger les fresques de Michel-Ange de la suie, que la fumée produite est devenue visible pour quiconque se trouvait à l’extérieur de la chapelle.
À l’époque, la fumée n’était pas censée être un signal public, mais une fois qu’elle a été visible, les observateurs ont commencé à l’interpréter comme un indicateur du résultat du vote.
Au XIXe siècle, il était devenu habituel d’utiliser délibérément la fumée : si l’on voyait de la fumée, cela signifiait qu’aucun pape n’avait été élu, alors que l’absence de fumée indiquait que l’élection avait été couronnée de succès. Cette pratique manquait évidemment de clarté et était souvent source de confusion.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le Vatican a finalement cherché à clarifier les choses en officialisant la pratique de la fumata nera (fumée noire) et de la fumata bianca (fumée blanche). Au départ, de la paille humide et du goudron étaient ajoutés aux bulletins de vote qui brûlaient. Comme le savent tous ceux qui ont essayé d’allumer un feu avec du bois ou avec de la paille humide, les combustibles huileux humides peuvent être difficiles à enflammer, mais une fois qu’ils ont pris feu, ils produisent beaucoup de fumée… noire.
C’est le résultat d’une combustion incomplète : l’énergie des flammes est d’abord utilisée pour évaporer l’eau, ce qui maintient la température du feu à un niveau bas. Par conséquent, de nombreuses grosses molécules du goudron (végétal) ne brûlent pas complètement, ce qui entraîne la production de suie et de fumée noire.
Cependant, une fois l’humidité chassée, le feu brûle plus efficacement, produisant principalement de la vapeur d’eau et du dioxyde de carbone. À ce stade, la fumée diminue et devient beaucoup plus légère.
La nature variable de la fumata – combinée à l’interprétation subjective de sa couleur – a provoqué une grande confusion, en particulier lors des conclaves de 1939 et de 1958, car, notamment, on ne savait pas si la fumée grise était plus proche du noir ou du blanc. Dans les années 1970, la méthode de la paille a été abandonnée au profit de mélanges chimiques plus contrôlables. Depuis, cette méthode a évolué pour devenir une méthode sans ambiguïté permettant de générer les signaux de fumée requis.
En 2013, le Vatican a confirmé que ses recettes de fumata consistent désormais en deux recettes bien établies.
La fumée noire est produite avec du perchlorate de potassium (KClO4), une « substance oxydante » qui fournit de l’oxygène à la réaction ; de l’anthracène, un hydrocarbure dérivé du goudron de houille qui sert de combustible lourd produisant de la fumée ; et du soufre pour ajuster la vitesse de combustion et la température.
Il en résulte une réaction de combustion délibérément inefficace, produisant un volume important de particules de carbone non brûlées, c’est une combustion incomplète. Cette abondance de carbone (suie) rend la fumée épaisse et noire – un peu comme la fumée que l’on peut voir en brûlant de l’huile ou du caoutchouc, qui est riche en particules à base de carbone.
La fumée blanche, quant à elle, est produite à l’aide d’un mélange de combustibles beaucoup plus propre et d’un oxydant plus puissant. Le chlorate de potassium (KClO3) – encore plus réactif que le perchlorate – assure une combustion chaude et vigoureuse. Le combustible est du lactose (un sucre), dont la combustion rapide et propre produit de grandes quantités de gaz (vapeur d’eau et CO2), générant un volumineux nuage blanc. Enfin, le dernier ingrédient, la colophane de pin (une résine solide), produit une épaisse fumée blanche lorsqu’il est chauffé, libérant de minuscules gouttelettes et des cendres de couleur claire qui semblent blanchâtres. Les terpènes contenus dans la résine produisent aussi en brûlant une fumée pâle et visible.
Le pouvoir oxydant du chlorate de potassium permet au lactose et à la colophane de brûler rapidement et à haute température, ce qui génère des produits de combustion généralement « propres », ainsi qu’un nuage de vapeur et des particules de résine.
Plutôt que de la suie, la fumée contient alors des gouttelettes microscopiques et des solides fins qui sont blancs ou transparents. Il en résulte un mélange de vapeur et de fumée blanche ou gris clair, qui contraste fortement avec la fumée noire riche en carbone.
C’est ainsi qu’au fil des ans, le signal de fumée du conclave papal est passé d’un sous-produit accidentel de la combustion des bulletins de vote à un outil de communication soigneusement élaboré.
Aujourd’hui, grâce à la chimie, la fumée est reconnaissable entre toutes : d’épaisses volutes noires pour les votes non concluants ou un panache d’un blanc éclatant pour l’élection d’un nouveau pape, comme celle de Léon XIV, ce jeudi 8 mai 2025.
Mark Lorch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.05.2025 à 12:18
Khalil Hanna, Professeur en chimie environnementale et interfaces, École Nationale Supérieure de Chimie de Rennes (ENSCR)
Muhammad Usman, Chercheur en Chimie Environnementale et Pollution, École Nationale Supérieure de Chimie de Rennes (ENSCR)
On entend surtout parler de la pollution de l’eau potable par les « polluants éternels »… mais les sols aussi sont contaminés, et ils peuvent jouer le rôle de réservoir en relarguant lentement des PFAS dans l’environnement. Outre les efforts réglementaires entrepris, notamment en Europe, les spécialistes explorent des pistes pour dépolluer les sols.
Les PFAS sont des substances poly- et perfluoroalkylées surnommées « polluants éternels ». Ce vaste groupe de plus de 10 000 composés fluorés synthétiques est largement utilisé dans l’industrie et les produits de consommation courante : textiles hydrofuges, emballages alimentaires, revêtements antiadhésifs ou encore mousses anti-incendie.
En 2020, entre 140 000 et 310 000 tonnes de PFAS ont ainsi été introduites dans l’Union européenne. Les PFAS sont associés à de graves risques pour la santé, notamment un lien avec certains cancers, des perturbations endocriniennes et des effets néfastes sur le système immunitaire.
Les PFAS peuvent persister dans l’environnement pendant des décennies en raison de leur exceptionnelle stabilité chimique due aux fortes liaisons carbone-fluor. Ainsi, certains sites où leur usage a cessé dès les années 1990 présentent encore aujourd’hui une contamination élevée des eaux souterraines. C’est le cas par exemple d’un ancien aéroport militaire et ses sols impactés durablement par les mousses anti-incendie.
En s’infiltrant depuis la surface de sol, ces substances toxiques menacent durablement les ressources en eau potable, l’agriculture et les écosystèmes. Les États membres de l’UE ont donc soumis, en janvier 2023, une proposition de restriction sur la fabrication, la mise sur le marché et l’utilisation des PFAS à l’Agence européenne des produits chimiques (Echa).
Mais ces efforts réglementaires se concentrent aujourd’hui principalement sur l’eau. La contamination des sols reste encore largement négligée alors qu’elle représente un risque environnemental et sanitaire majeur pour ces derniers qui ont un rôle de réservoir. Il est urgent de développer des stratégies efficaces de dépollution des sols déjà contaminés, afin de limiter les risques et de protéger les ressources naturelles.
À lire aussi : Santé : la biosurveillance des principaux produits chimiques se met en place en Europe
Le sol constitue un réservoir majeur et à long terme pour la contamination par les PFAS.
Des études ont révélé leur présence même dans des régions isolées, dépourvues de sources de pollution directes, illustrant ainsi leur dispersion à grande échelle par les processus atmosphériques et les mouvements de l’eau.
Des évaluations mondiales ont détecté des PFAS dans les sols de plusieurs continents, avec des charges estimées atteignant des milliers de tonnes pour les huit PFAS mesurés – cependant, la contamination reste largement sous-estimée en raison des limites des techniques analytiques actuelles, qui ne permettent de cibler qu’un nombre restreint de composés.
À lire aussi : Le casse-tête de la surveillance des PFAS dans les eaux
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Jouant un rôle clé dans la filtration et la rétention des polluants, le sol capte les PFAS « par adsorption », c’est-à-dire que les molécules s’accrochent sur les composants de terre, par exemple la matière organique et les surfaces minérales. Cependant, cette capacité n’est pas illimitée : avec le temps, à mesure que les PFAS s’accumulent, et le risque d’entraîner une libération progressive de ces contaminants vers les eaux souterraines devient important.
L’utilisation d’adsorbants carbonés, notamment le biochar, un charbon végétal, apparaît comme une approche prometteuse pour lutter contre la contamination par les PFAS dans les sols. Ce matériau écologique et économique est obtenu par la pyrolyse (température variant selon le procédé) de déchets agricoles et organiques en conditions de faible oxygène, produisant une substance poreuse et riche en carbone.
En plus de piéger efficacement les PFAS et de limiter leur dispersion, le biochar améliore la santé des sols en renforçant la rétention d’eau, la disponibilité des nutriments, l’activité microbienne et la séquestration du carbone, faisant de lui un atout précieux pour la dépollution et l’agriculture durable.
Nos études ont démontré l’efficacité du biochar pour immobiliser les PFAS, réduisant ainsi leur migration vers les eaux souterraines.
Cependant, cette immobilisation ne garantit pas une élimination définitive du risque, car les PFAS peuvent, selon les conditions environnementales et leur composition chimique, se désorber progressivement, c’est-à-dire se décrocher du biochar. Leur mobilité dépend notamment de la longueur de leur chaîne et de leurs groupes fonctionnels, rendant leur comportement difficile à anticiper. C’est pourquoi, une surveillance à long terme des sols amendés avec du biochar reste essentielle pour assurer son efficacité durablement et limiter l’exposition aux PFAS.
Pour une décontamination efficace des sols pollués par les PFAS, une approche intégrée est essentielle. Le lavage des sols semble une technique prometteuse, permettant de transférer les contaminants vers une phase liquide plus réduite en volume, par rapport à la masse de sol à traiter.
Nos recherches ont démontré que cette méthode peut éliminer plus de 90 % des PFAS des sols contaminés grâce à l’utilisation d’agents de lavage adaptés, par exemple du méthanol mélangé à de l’eau. Cependant, ce processus génère des effluents hautement chargés en PFAS, nécessitant un traitement pour éviter toute pollution secondaire. C’est là qu’intervient le biochar : en capturant et en éliminant efficacement ces polluants des effluents de lavage, il prolonge son utilité au-delà de la remédiation des sols pour s’intégrer au traitement des eaux et des eaux usées.
Mais, si le biochar se révèle particulièrement performant pour adsorber les PFAS à longue chaîne, il peine à capturer les variantes à chaîne courte, plus mobiles et moins hydrophobes. De plus, il reste difficile de séparer le biochar saturé de PFAS de l’eau traitée, et d’assurer la stabilité du biochar et sa réutilisabilité à long terme.
Bien que les adsorbants carbonés comme le biochar soient efficaces pour extraire les PFAS de l’environnement, ils ne les détruisent pas, ce qui soulève un problème crucial : les PFAS capturés risquent de réintégrer le milieu naturel, perpétuant ainsi un cycle sans fin de contamination. Par exemple, les matériaux adsorbants mis en décharge peuvent relarguer les PFAS piégés, favorisant leur retour dans le sol et l’eau. Cette problématique souligne l’urgence de développer des technologies capables de détruire définitivement ces polluants.
Actuellement, l’incinération représente l’une des principales méthodes d’élimination des adsorbants saturés en PFAS. En revanche, des incertitudes subsistent quant à son efficacité, aux risques de formation de sous-produits nocifs dans l’air et à son impact environnemental, notamment en raison de sa forte consommation énergétique et de ses émissions potentiellement toxiques.
Face aux limites des stratégies actuelles de gestion des déchets contenant des PFAS, le besoin de solutions innovantes et durables de destruction de ces polluants est plus pressant que jamais.
Notre laboratoire a franchi une étape clé en enrichissant un biochar avec de la magnétite (en cours de publication), un minéral de fer naturel également issu des sous-produits de l’industrie sidérurgique – ici aussi, en transformant des déchets en ressources, nous essayons de nous inscrire dans les principes de l’économie circulaire, où chaque résidu devient une opportunité.
Le biochar magnétique conserve les capacités d’adsorption du biochar et offre une séparation simplifiée de l’eau traitée grâce à l’utilisation d’aimants. Cette innovation permet de relever l’un des plus grands défis des méthodes de remédiation actuelles : la récupération efficace du matériau adsorbant.
De plus, le biochar magnétique renforce significativement la dégradation des PFAS, grâce au potentiel catalytique de la magnétite. Le biochar magnétique favorise les processus d’oxydation avancée qui permettent de décomposer les PFAS.
Toutefois, si de nombreuses technologies émergentes de dégradation des PFAS démontrent leur efficacité en phase liquide (notamment dans les eaux contaminées), leur application dans les sols reste limitée en raison de la complexité des constituants du sol.
Nous espérons que notre approche contribue à combler cette lacune et ouvre la voie à une remédiation plus globale et efficace des environnements contaminés par les PFAS.
Khalil Hanna a reçu des financements de l'ADEME, l'ANR et l'UE.
Muhammad Usman a reçu des financements de l'ADEME, l'ANR et l'UE.