LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

22.07.2025 à 08:12

Échecs : quand un professeur de statistiques enquête sur des allégations de tricherie au plus haut niveau

Jeffrey S. Rosenthal, Professor of Statistics, University of Toronto

Lorsqu’un ancien champion du monde d’échecs a laissé entendre qu’un autre grand maître trichait sur la plateforme en ligne « Chess.com », un statisticien a été appelé pour examiner les preuves.
Texte intégral (1210 mots)

Lorsque l’ancien champion du monde d’échecs Vladimir Kramnik a laissé entendre qu’Hikaru Nakamura, l’un des meilleurs joueurs du monde actuellement, trichait sur la plateforme en ligne Chess.com, un statisticien a été appelé pour enquêter.


En tant que professeur de statistiques, il n’est pas fréquent que je sois contacté directement par le PDG d’une entreprise valant plusieurs millions de dollars, et encore moins au sujet d’une histoire d’allégations de tricherie et de malversations impliquant des champions du monde d’échecs.

C’est pourtant ce qui s’est passé l’été dernier. Erik Allebest, PDG du plus grand site d’échecs en ligne au monde, Chess.com, m’a demandé d’enquêter sur les allégations de l’ancien champion du monde d’échecs Vladimir Kramnik concernant les longues séries de victoires d’un des meilleurs joueurs du monde, l’Américain Hikaru Nakura.

Kramnik a déclaré que ces séries avaient une très faible probabilité de se produire et qu’elles étaient donc très suspectes. Il n’a pas formellement accusé Hikaru de tricherie, mais le sous-entendu était clair. Sur Internet, les esprits se sont vite échauffés : les partisans de Kramnik postant des commentaires virulents (souvent en russe) sur cette présumée tricherie, tandis que de nombreux joueurs de Chess.com et partisans d’Hikaru rejetaient les accusations.

Qui a raison ? Qui a tort ? Est-il possible de trancher ?

Erik Allebest m’a demandé de réaliser une analyse statistique indépendante et impartiale pour déterminer le degré d’improbabilité de ces séries de victoires.

Le calcul de probabilités

Pour résoudre ce problème, j’ai d’abord dû calculer la probabilité que chaque joueur gagne ou fasse match nul dans chaque partie. Les joueurs peuvent avoir des niveaux de jeu très différents. Les meilleurs ont évidemment plus de chances de vaincre des adversaires moins expérimentés. Mais à quel point ?

Chess.com attribue un classement à chaque joueur qui varie après chaque partie, et ces notes m’ont été communiquées. Mon analyse a suggéré qu’un modèle mathématique pouvait fournir une estimation précise des probabilités de victoire, de défaite ou de nulle pour chaque partie.

En outre, les écarts par rapport à cette probabilité dans les résultats de parties successives étaient approximativement indépendants, de sorte que l’influence d’une partie sur la suivante pouvait être ignorée en toute sécurité. J’ai ainsi obtenu une probabilité claire que chaque joueur gagne (ou perde) chaque partie.

Je pouvais alors analyser ces séries de victoires qui avaient provoqué tant de débats enflammés. Il s’est avéré qu’Hikaru Nakamura, contrairement à la plupart des autres joueurs de haut niveau, avait joué de nombreuses parties contre des joueurs beaucoup plus faibles. Cela lui donnait donc une très grande probabilité de gagner chaque partie. Mais malgré cela, est-il normal d’observer de si longues séries de victoires, parfois plus de 100 parties d’affilée ?

Tester le caractère aléatoire

Pour le vérifier, j’ai effectué ce que l'on appelle des simulations de Monte Carlo, qui répètent une expérience en intégrant des variations aléatoires.

J’ai codé des programmes informatiques pour attribuer au hasard des victoires, des défaites et des nuls à chaque partie d’Hikaru Nakamura, selon les probabilités de mon modèle. J’ai demandé à l’ordinateur de mesurer à chaque fois les séries de victoires les plus surprenantes (les moins probables). Cela m’a permis de mesurer comment les séries réelles d’Hikaru pouvaient se comparer aux prédictions.

J’ai constaté que dans de nombreuses simulations, les résultats simulés comprenaient des séries tout aussi « improbables » que les séries réelles.

Cela démontre que les résultats d’Hikaru aux échecs étaient à peu près conformes à ce que l’on pouvait attendre. Il avait une telle probabilité de gagner chaque partie, et avait joué tellement de parties sur Chess.com, que des séries de victoires aussi longues étaient susceptibles d’émerger selon les règles des probabilités.

Les réponses à mes découvertes

J’ai rédigé un bref rapport à propos de mes recherches et l’ai envoyé à Chess.com.

Le site a publié un article, qui a suscité de nombreux commentaires, pour la plupart favorables.

Nakamura a ensuite publié son propre commentaire en vidéo, soutenant également mon analyse. Pendant ce temps, Kramnik a publié une vidéo de 29 minutes critiquant mes recherches.

Ce dernier ayant soulevé quelques points importants, j’ai rédigé un addendum à mon rapport pour répondre à ses préoccupations et montrer qu’elles n’avaient pas d’incidence sur la conclusion. J’ai également converti mon rapport en un article scientifique que j’ai soumis à une revue de recherche.

Puis je me suis ensuite consacré à mes tâches d’enseignant et j’ai laissé de côté les controverses sur les échecs jusqu’à ce que je reçoive une réponse de plus de six pages en décembre dernier. Il s’agissait de trois rapports d’arbitres et de commentaires d’éditeurs de la revue dans laquelle j’avais soumis mon article scientifique.

J’ai également découvert que Kramnik avait posté une deuxième vidéo de 59 minutes critiquant mon addendum et soulevant d’autres points.

J’ai tenu compte des points supplémentaires soulevés par Kramnik et par les arbitres tout en révisant mon article en vue de sa publication. Il a finalement été publié dans Harvard Data Science Review.

J’étais heureux de voir mes résultats publiés dans une prestigieuse revue de statistiques, ce qui leur conférait un sceau d’approbation officiel. Et peut-être, enfin, de régler cette controverse sur les échecs au plus haut niveau.

The Conversation

Jeffrey S. Rosenthal reçoit des fonds de recherche du CRSNG du Canada, mais n'a reçu aucune compensation de Chess.com ou de qui que ce soit d'autre pour ce travail.

PDF

21.07.2025 à 18:10

La lune glacée Europe, un phare scintillant dans l’infrarouge ?

Cyril Mergny, Postdoctoral research fellow, Université Paris-Saclay

Frédéric Schmidt, Professeur, Planétologie, Université Paris-Saclay

Si vous pouviez voir dans l’infrarouge, avec un peu de patience, vous verriez Europe clignoter.
Texte intégral (2729 mots)
La glace d’eau à la surface d’Europe change au cours des saisons - ici, le taux de glace cristalline sur le premier micromètre d’épaisseur de glace au cours d'un cycle de saisons de 12 ans. Fourni par l'auteur

Europe est une lune de Jupiter entièrement recouverte d’une épaisse croûte de glace. Sous cette carapace, tout autour de la lune, se trouve un océan global d’eau liquide.

Cette lune intéresse particulièrement les scientifiques depuis que les données de la sonde Galileo, à la fin des années 1990, ont révélé des conditions qui pourraient être propices à l’émergence de la vie dans cet océan sous-glaciaire. En effet, c’est le seul endroit dans le système solaire (en dehors de la Terre) où de l’eau liquide est en contact direct avec un manteau rocheux à la base de l’océan. S’il y a du volcanisme sous-marin sur Europe, cela fournirait une source d’énergie, qui, avec l’eau, est l’un des ingrédients essentiels pour générer les briques de base du vivant.

Mais il reste encore de nombreuses inconnues sur la glace en surface d’Europe. Deux nouvelles études lèvent le voile sur un phénomène inattendu.


Grâce à deux nouvelles études, l’une théorique et l’autre issue des observations du télescope James-Webb, nous comprenons aujourd’hui mieux la surface glacée d’Europe. Nous avons notamment montré que la structure atomique de la glace change au fil des saisons, ce que l’on peut voir dans la lumière réfléchie par cette lune, un peu comme un phare qui scintillerait dans la nuit.

Ces nouvelles connaissances seront utiles pour, un jour, envisager de poser un atterrisseur sur Europe, mais aussi pour mieux comprendre les processus géologiques qui façonnent la surface – on ne sait toujours pas, par exemple, bien expliquer l’origine des « rayures » qui façonnent la surface d’Europe.

Dans les prochaines années, nous espérons que le scintillement du « phare atomique » d’Europe pourra être réellement observé, notamment par la sonde Europa Clipper de la Nasa ainsi par que la mission JUICE de l’ESA.

La glace sur Terre et la glace dans l’espace sont différentes

Sur Terre, la glace d’eau dans son environnement naturel se présente sous une seule forme : une structure cristalline, communément appelée « glace hexagonale ».

Cependant, dans l’espace, comme sur Europe, c’est une autre histoire : il fait tellement froid que la glace d’eau peut adopter des formes plus exotiques avec différentes propriétés.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ainsi, la forme de glace la plus répandue dans l’Univers est la glace dite « amorphe ».

C’est une forme de glace où l’arrangement des molécules d’eau ne présente aucun ordre à grande échelle, contrairement à la glace cristalline qui, elle, possède des motifs répétitifs.

Une analogie à notre échelle humaine serait un étalage d’oranges. Dans le cas cristallin, les éléments sont tous bien rangés, sous la forme d’un réseau périodique. Dans le cas amorphe, les éléments sont en vrac sans aucune position régulière.

des tas d’agrumes
Les agrumes, un peu comme les atomes et molécules, peuvent être disposés de façon plus ou moins organisée. À gauche, il s’agit d’un analogue d’une organisation cristalline à l’échelle atomique, avec des atomes « bien rangés » ; à droite, l’organisation est aléatoire, analogue à une organisation amorphe à l’échelle atomique. Jen Gunter et Maria Teneva/Unsplash, CC BY

Notre vie quotidienne comprend des exemples de versions amorphes ou cristallines d’un même matériau : par exemple, la barbe à papa contient une forme amorphe du sucre, alors que le sucre de cuisine usuel est cristallin.

En fait, nous nous attendons à ce que le système solaire externe ait de la glace principalement sous une forme amorphe, en premier lieu parce qu’à très faible température (-170 °C sur Europe), les molécules n’ont pas assez d’énergie pour s’organiser correctement ; mais également parce que la structure cristalline a tendance à se briser sous l’effet des bombardements de particules en provenance du Soleil, déviées par la magnétosphère de Jupiter, comme si on envoyait une orange perturbatrice dans un étal bien rangé.

Comparaison de structure de la glace
La glace d’eau peut prendre différentes formes : structure cristalline à gauche et structure amorphe à droite. Cyril Mergny, Fourni par l'auteur

Les observations spatiales précédentes des années 1990 puis dans la décennie 2010 avaient montré que la glace d’Europe est un mélange de formes amorphes et cristallines. Mais, jusqu’à présent, aucun modèle n’expliquait pourquoi.

Une structure qui change avec les saisons

Pour la première fois, nous avons quantifié la compétition entre la cristallisation, due à la température pendant les heures les plus chaudes de la journée, et l’amorphisation induite par le bombardement en surface de particules issues de la magnétosphère de Jupiter.

Nous avons ainsi montré que la cristallinité est stratifiée sur Europe : une très fine couche en surface est amorphe, tandis que la couche en profondeur est cristalline.

Plus remarquable encore, la simulation a révélé que la cristallinité de la glace en surface pouvait varier selon les saisons ! Bien que les variations saisonnières n’affectent pas la quantité de particules qui bombardent Europe, il fait plus chaud en été, ce qui rend la cristallisation plus efficace et fait ainsi pencher la balance en sa faveur. En été, il fait en moyenne 5 °C plus chaud qu’en hiver, ce qui rend la glace jusqu’à 35 % plus cristalline qu’en hiver dans certaines régions.

Nous en avons conclu que si l’on observait Europe au fil des saisons à travers un spectroscope, cela donnerait l’impression que la surface « scintille » sur une période de douze ans (la durée d’une année sur Europe), comme un phare dans la nuit.

Comment fait-on pour connaître la structure atomique de la glace à une distance de 700 millions de kilomètres ?

Simultanément à notre étude, des astronomes de la Nasa ont observé Europe avec le puissant télescope James-Webb. Leur étude vient de montrer que les résultats de nos simulations sont en accord avec leurs observations. En effet, bien que les deux approches utilisent des méthodes radicalement différentes, elles aboutissent aux mêmes conclusions.

Grâce au spectromètre du James-Webb, les chercheurs ont pu estimer, à distance, la structure atomique de la glace à la surface d’Europe (sur le premier micromètre d’épaisseur). Pour cela, ils ont analysé la lumière réfléchie par Europe dans l’infrarouge (légèrement plus rouge que ce que notre œil peut percevoir) à la longueur d’onde de 3,1 micromètres qui reflète l’état de cristallisation de la glace d’eau.

Ils ont ainsi établi une carte de cristallinité de la lune glacée. En comparant leur carte observée avec celle que nous avons simulée, nous constatons un très bon accord, ce qui renforce notre confiance dans ces résultats.

Sur Europe, la surface est donc parsemée de régions avec de la glace d’eau amorphe et d’autres avec de la glace d’eau cristalline, car la température varie selon les zones. Globalement, les régions les plus sombres absorbent davantage les rayons du Soleil, ce qui les réchauffe et, comme sur Terre, les températures sont plus élevées près de l’équateur et plus basses près des pôles.

comparaison des résultats des deux études
Comparaison de la cristallinité sur l’hémisphère arrière d’Europe : observations versus simulation. À gauche : l’observation par le télescope James-Webb de la profondeur de bande à la longueur d’onde 3,1 micromètres, caractéristique de la glace cristalline. À droite, les résultats de cristallinité de nos dernières simulations sur la même zone. Les deux études indiquent qu’en proche surface, les régions Tara et Powys sont composées de glace cristalline, tandis que la glace amorphe est dominante dans les latitudes nord environnantes. Cartwright et collaborateurs 2025 ; Mergny et collaborateurs 2025, Fourni par l'auteur

Cependant, l’étude observationnelle utilisant le télescope James-Webb a capturé une photo d’Europe. Elle ne peut donc pas, pour le moment, détecter les scintillements dans l’infrarouge, car il faudrait observer la surface au cours de plusieurs années pour distinguer un changement. Ces fluctuations de la surface sont une nouveauté que nous avons découverte dans notre étude de simulation, et elles restent à être confirmées par des observations.

Nous espérons que les sondes JUICE et Europa Clipper pourront bientôt observer ces oscillations saisonnières de la lumière réfléchie par Europe dans l’infrarouge.

Notre intérêt se porte désormais aussi sur d’autres lunes glacées de Jupiter, où une cohabitation entre glace amorphe et glace cristalline pourrait exister, comme sur Ganymède et sur Callisto, mais aussi sur d’autres corps tels qu’Encelade, en orbite autour de Saturne, ou encore sur des comètes.

The Conversation

Frédéric Schmidt est Professeur à l'Université Paris-Saclay, membre de l'Institut Universitaire de France (IUF). Il a obtenu divers financements publics (Université Paris-Saclay, CNRS, CNES, ANR, UE, ESA) ainsi que des financements privés (Airbus) pour ses recherches.

Cyril Mergny ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.07.2025 à 18:50

La mission spatiale CO3D, ou comment cartographier la Terre en 3D et au mètre près

Laurent Lebegue, Responsable performances système du projet CO3D, Centre national d’études spatiales (CNES)

La mission CO3D doit décoller ce 25 juillet. Elle s’appuie sur de nombreuses innovations technologiques pour imager en 3D et au mètre près les terres émergées du globe.
Texte intégral (2413 mots)

Quatre satellites de nouvelle génération vont quitter Kourou, en Guyane, le 25 juillet, à bord d’une fusée Vega-C.

La mission CO3D, consacrée à la cartographie en trois dimensions des terres émergées du globe, s’appuie sur de nombreuses innovations technologiques. Son défi principal ? Couvrir une surface considérable avec une précision de l’ordre du mètre, en imageant aussi les objets mobiles comme les véhicules ou panaches de fumée, tout en se fondant sur des traitements entièrement automatisés pour réduire les coûts de production.


La mission CO3D, développée conjointement par le Centre national d’études spatiales (Cnes) et Airbus, doit fournir une cartographie des reliefs, que l’on appelle dans le domaine « modèles numériques de surface », pour des besoins bien identifiés – qu’ils soient civils ou militaires –, mais aussi de développer de nouveaux usages de ces informations 3D, encore insoupçonnés, que ce soit par des organismes de recherches ou des start-ups.

Pourquoi cartographier la Terre en 3D ?

Les données acquises par la mission CO3D permettront de surveiller la Terre depuis l’espace. Ainsi, les scientifiques pourront par exemple suivre les variations du volume des glaciers ou des manteaux neigeux en montagne.

Ils pourront aussi étudier l’évolution du trait de côte ou encore l’effondrement des falaises, et ainsi simuler l’impact de la montée du niveau des mers sur les terres littorales.

La cartographie 3D de la biomasse permet aussi de suivre à grande échelle la déforestation ou, plus localement, l’évolution de la végétalisation des villes et la gestion des îlots de chaleur.

L’ensemble de ces données, qui forment l’une des briques de base des jumeaux numériques, sont essentielles pour mieux comprendre l’impact du dérèglement climatique sur les écosystèmes et les territoires.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Au-delà des sciences, la modélisation 3D précise est un outil indispensable pour les acteurs du secteur public comme les collectivités ou la sécurité civile. Ces dernières exploitent les données 3D dans le cadre de l’aménagement du territoire, la gestion des espaces tels que les zones inondables ou encore pour la connaissance précise des terrains en cas de gestion de crise à la suite d’une catastrophe naturelle.

Par exemple, en cas de tremblement de Terre, les satellites d’observation sont activés pour évaluer les dégâts à grande échelle afin d’aider les secours à prioriser leurs interventions, mais aussi pour évaluer les reconstructions à prévoir. Ces opérations sont réalisables avec de l’imagerie 2D classique, mais estimer l’effondrement d’un étage de bâtiment avec une simple vue verticale n’est pas forcément adapté, contrairement à l’imagerie 3D qui permet de mesurer directement les hauteurs.

En matière de défense, les données CO3D aideront, par exemple, à préparer les missions aériennes d’avion ou de drones à basse altitude ainsi que les déploiements de véhicules et de troupes sur divers terrains accidentés.

Comment fonctionne cette nouvelle imagerie 3D ?

La constellation s’articule autour de quatre satellites construits par Airbus, d’une masse de 285 kilogrammes chacun et d’une durée de vie de huit ans, permettant d’acquérir des images en couleurs d’une résolution de 50 centimètres – soit la résolution nécessaire pour produire des modèles numériques de surface avec une précision altimétrique d’environ un mètre.

vue d’artiste d’une paire de satellites
Acquisition stéréoscopique d’une paire de satellites CO3D. CNES, Fourni par l'auteur

Les quatre satellites seront regroupés en deux paires positionnées sur une même orbite (à 502 kilomètres d’altitude), mais en opposition afin de réduire le temps nécessaire aux satellites pour revenir photographier un même site.

Le principe de génération des modèles numériques de surface à partir des images est celui qui nous permet de voir en trois dimensions : la vision stéréoscopique. Les images d’un site sur Terre sont acquises par deux satellites avec un angle différent comme le font nos yeux. La parallaxe mesurée entre les deux images permet, grâce à de puissants logiciels, de calculer la troisième dimension comme le fait notre cerveau.

schéma de principe
Principe de génération de modèle numérique de surface par stéréoscopie spatiale. Cnes, Fourni par l'auteur

De plus, les images étant acquises avec deux satellites différents que l’on peut synchroniser temporellement, il est possible de restituer en 3D des objets mobiles, tels que des véhicules, des panaches de fumée, des vagues, etc. Cette capacité, encore jamais réalisée par des missions précédentes, devrait améliorer la qualité des modèles numériques de surface et ouvrir le champ à de nouvelles applications.

Les couleurs disponibles sont le rouge, le vert, le bleu mais aussi le proche infrarouge, ce qui permet d’avoir des images en couleur naturelle comme les voient nos yeux, mais aussi d’augmenter la capacité à différencier les matériaux, au-delà de ce que peut faire la vision humaine. Par exemple, un terrain de sport apparaissant en vert en couleur naturelle pourra être discriminé en herbe ou en synthétique grâce au proche infrarouge. Notons que la résolution native de 50 centimètres dans le proche infrarouge est inégalée à ce jour par d’autres missions spatiales. Elle permettra par exemple de générer automatiquement des cartes précises de plans d’eau et de végétation qui sont des aides à la production automatique de nos modèles numériques de surface de précision métrique.

Les satellites ont chacun la capacité d’acquérir environ 6 500 images par jour mais malgré cela, il faudra environ quatre ans pour couvrir l’ensemble des terres émergées attendues et produire les données associées ; une image élémentaire ayant une emprise au sol de 35 kilomètres carrés, il faudra environ 3,5 millions de couples d’images stéréoscopiques pour couvrir les 120 millions de kilomètres carrés.

Un gros travail au sol pour tirer le meilleur des données

De nombreuses innovations concernent également la planification de la mission et les traitements réalisés au sol.

Les satellites optiques ne voyant pas à travers les nuages, la prise en compte de prévisions météorologiques les plus fraîches possible est un élément clé des performances de collecte des données. En effet, les satellites sont très agiles et on peut les piloter pour observer entre les nuages. Avec CO3D, la prévision météo est rafraîchie à chaque orbite, à savoir quinze fois par jour.

Ouverture du container contenant les quatre satellites CO3D, en salle blanche à Kourou (Guyane). 2025 ESA-Cnes-Arianespace/Optique vidéo du CSG-P. Piron, Fourni par l'auteur

Le volume de données à générer pour couvrir le monde en 4 ans est considérable, environ 6 000 téraoctets (l’équivalent d’un million de DVD). La seule solution possible pour atteindre cet objectif dans une durée contrainte et à des coûts réduits a été pour le Cnes de développer des chaînes de traitement robustes, sans reprise manuelle et massivement parallélisées dans un cloud sécurisé.

Le Cnes développe aussi un centre de calibration image, consacré à la mission CO3D, qui sera chargé, pendant les six mois qui suivent le lancement, d’effectuer les réglages des satellites, des instruments et des logiciels de traitement qui permettront d’avoir la meilleure qualité possible des images. À l’issue de ces phases de qualification des satellites et des données, les cartographies 3D seront accessibles aux partenaires institutionnels du Cnes (scientifiques, collectivités locales ou équipes de recherche et développement) au fur et à mesure de leur production.

Par la suite, après une phase de démonstration de production à grande échelle de dix-huit mois, Airbus commercialisera également des données pour ses clients.

À quelques jours du lancement, la campagne de préparation des satellites bat son plein à Kourou et l’ensemble des équipes de développement et d’opérations finalise à Toulouse les derniers ajustements pour démarrer les activités de mise à poste et de recette en vol, les activités de positionnement des satellites sur leur orbite finale, de démarrage des équipements des satellites et de leurs instruments, puis de réglage des paramètres des traitements appliqués au sol.

The Conversation

Laurent Lebegue ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.07.2025 à 18:01

PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »

Julie Mendret, Maître de conférences, HDR, Université de Montpellier

Mathieu Gautier, Professeur des Universités, INSA Lyon – Université de Lyon

Aujourd’hui, de nombreuses pistes sont en développement pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire.
Texte intégral (2437 mots)

Les PFAS, ces substances per- et polyfluoroalkylées, souvent surnommées les « polluants éternels », représentent un défi environnemental majeur en raison de leur persistance et de leur toxicité.

Aujourd’hui, outre mieux réguler leur utilisation, il faut de meilleures pistes pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire. Un véritable défi puisque ces molécules sont à la fois très variées et très résistantes – ce qui fait leur succès.


Des mesures d’encadrement et d’interdiction des émissions de PFAS, indispensables pour limiter leur diffusion dans l’environnement, sont d’ores et déjà en route. Selon une loi adoptée en février 2025, la France doit tendre vers l’arrêt total des rejets industriels de PFAS dans un délai de cinq ans.


À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Récemment, une enquête menée par le Monde et 29 médias partenaires a révélé que la décontamination des sols et des eaux contaminées par ces substances pourrait coûter de 95 milliards à 2 000 milliards d’euros sur une période de vingt ans.

Comme pour d’autres contaminants organiques, on distingue deux grandes familles de procédés de traitement.

Certaines technologies consistent à séparer et parfois concentrer les PFAS du milieu pollué pour permettre le rejet d’un effluent épuré, mais elles génèrent par conséquent des sous-produits à gérer qui contiennent toujours les polluants. D’autres technologies consistent à dégrader les PFAS. Ces procédés impliquent la destruction de la liaison C-F (carbone-fluor) qui est très stable avec souvent des besoins énergétiques associés élevés.

Dans cet article, nous recensons une partie des nombreux procédés qui sont actuellement testés à différentes échelles (laboratoire, pilote, voire à l’échelle réelle), depuis des matériaux innovants, qui peuvent parfois simultanément séparer et détruire les PFAS, jusqu’à l’utilisation d’organismes vivants, comme des champignons ou des microbes.


À lire aussi : Le casse-tête de la surveillance des PFAS dans les eaux


Procédés de séparation et concentration des PFAS dans l’eau

Actuellement, les techniques mises en œuvre pour éliminer les PFAS dans l’eau sont essentiellement des procédés de séparation qui visent à extraire les PFAS de l’eau sans les décomposer, nécessitant une gestion ultérieure des solides saturés en PFAS ou des concentrâts (déchets concentrés en PFAS) liquides.

La technique la plus couramment mise en œuvre est l’« adsorption », qui repose sur l’affinité entre le solide et les molécules de PFAS qui se fixent sur la surface poreuse (il est plus favorable chimiquement pour le solide et le PFAS de s'accrocher l'un à l'autre que d'être séparés). L’adsorption est une technique de séparation efficace pour de nombreux contaminants incluant les PFAS. Elle est largement utilisée dans le traitement de l’eau, notamment en raison de son coût abordable et de sa facilité d’utilisation. La sélection de l’adsorbant est déterminée par sa capacité d’adsorption vis-à-vis du polluant ciblé. De nombreux matériaux adsorbants peuvent être utilisés (charbon actif, résine échangeuse d’ions, minéraux, résidus organiques, etc.).

Parmi eux, l’adsorption sur charbon actif est très efficace pour les PFAS à chaîne longue mais peu efficace pour ceux à chaîne moyenne ou courte. Après adsorption des PFAS, le charbon actif peut être réactivé par des procédés thermiques à haute température, ce qui entraîne un coût énergétique élevé et un transfert des PFAS en phase gazeuse à gérer.

Une première unité mobile de traitement des PFAS par charbon actif a récemment été déployée à Corbas, dans le Rhône, et permet de traiter 50 mètres cube d’eau à potabiliser par heure.


À lire aussi : Les sols, face cachée de la pollution par les PFAS. Et une piste pour les décontaminer


Comme autre procédé d’adsorption, les résines échangeuses d’ions sont constituées de billes chargées positivement (anions) ou négativement (cations). Les PFAS, qui sont souvent chargés négativement en raison de leurs groupes fonctionnels carboxyliques ou sulfoniques, sont attirés et peuvent se fixer sur des résines échangeuses d’anions chargées positivement. Des différences d’efficacité ont aussi été observées selon la longueur de la chaîne des PFAS. Une fois saturées, les résines échangeuses d’ions peuvent être régénérées par des procédés chimiques, produisant des flux de déchets concentrés en PFAS qui doivent être traités. Il est à noter que les résines échangeuses d’ions n’ont pas d’agrément en France pour être utilisées sur une filière de production d’eau potable.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La technique actuellement la plus efficace pour l’élimination d’une large gamme de PFAS – à chaînes courtes et longues – dans l’eau est la filtration par des membranes de nanofiltration ou d’osmose inverse à basse pression. Malheureusement, cette technique est énergivore et génère des sous-produits de séparation, appelés « concentrâts ». Ces derniers présentent des concentrations élevées en PFAS qui induisent des difficultés de gestion (les concentrâts sont parfois rejetés dans l’environnement alors qu’ils nécessiteraient un traitement supplémentaire).

Enfin, la flottation par fractionnement de mousse exploite les propriétés des PFAS (tête hydrophile et queue hydrophobe) qui se placent à l’interface air/liquide dans des bulles de mousse et sont récupérés en surface. Des taux d’extraction de 99 % sont ainsi obtenus pour des PFAS à chaîne longue. Comme les précédentes, cette technique produit un concentrât qu’il faut éliminer ultérieurement.

Vers des technologies qui dégradent les PFAS

D’autres procédés cherchent à dégrader les contaminants présents dans les eaux afin d’offrir une solution plus durable. Il existe diverses technologies de destruction des polluants dans l’eau : les procédés d’oxydoréduction avancée, la sonolyse, la technologie du plasma, etc. Ces procédés peuvent être déployés en complément ou en remplacement de certaines technologies de concentration.

La destruction d’un polluant est influencée par son potentiel de biodégradabilité et d’oxydation/réduction. La dégradation naturelle des PFAS est très difficile en raison de la stabilité de la liaison C-F qui présente un faible potentiel de biodégradation (c’est-à-dire qu’elle n’est pas facilement détruite par des processus à l’œuvre dans la nature, par exemple conduits par des bactéries ou enzymes).

Les procédés d’oxydation avancée sont des techniques qui utilisent des radicaux libres très réactifs et potentiellement efficaces pour briser les liaisons C–F. Elles incluent entre autres l’ozonation, les UV/peroxyde d’hydrogène ou encore les procédés électrochimiques.

Le traitement électrochimique des PFAS constitue une méthode innovante et efficace pour la dégradation de ces composés hautement persistants. Ce procédé repose sur l’application d’un courant électrique à travers des électrodes spécifiques, générant des radicaux oxydants puissants capables de rompre les liaisons carbone-fluor, parmi les plus stables en chimie organique.

Pour tous ces procédés d’oxydation avancée, un point de surveillance est indispensable : il faut éviter la production de PFAS à chaînes plus courtes que le produit initialement traité.

Récemment, une entreprise issue de l’École polytechnique fédérale de Zurich (Suisse) a développé une technologie innovante capable de détruire plus de 99 % des PFAS présents dans les eaux industrielles par catalyse piézoélectrique. Les PFAS sont d’abord séparés et concentrés par fractionnement de la mousse. Ensuite, la mousse concentrée est traitée dans deux modules de réacteurs où la technologie de catalyse piézoélectrique décompose et minéralise tous les PFAS à chaîne courte, moyenne et longue.

La dégradation sonochimique des PFAS est également une piste en cours d’étude. Lorsque des ondes ultrasonores à haute fréquence sont appliquées à un liquide, elles créent des bulles dites « de cavitation », à l’intérieur desquelles des réactions chimiques ont lieu. Ces bulles finissent par imploser, ce qui génère des températures et des pressions extrêmement élevées (plusieurs milliers de degrés et plusieurs centaines de bars), qui créent des espèces chimiques réactives. Le phénomène de cavitation est ainsi capable de rompre les liaisons carbone-fluor, permettant d’obtenir finalement des composants moins nocifs et plus facilement dégradables. Très prometteuse en laboratoire, elle reste difficile à appliquer à grande échelle, du fait de son coût énergétique et de sa complexité.

Ainsi, malgré ces récents progrès, plusieurs défis subsistent pour la commercialisation de ces technologies en raison notamment de leur coût élevé, de la génération de potentiels sous-produits toxiques qui nécessitent une gestion supplémentaire ou encore de la nécessité de la détermination des conditions opérationnelles optimales pour une application à grande échelle.

Quelles perspectives pour demain ?

Face aux limites des solutions actuelles, de nouvelles voies émergent.

Une première consiste à développer des traitements hybrides, c’est-à-dire combiner plusieurs technologies. Des chercheurs de l’Université de l’Illinois (États-Unis) ont par exemple développé un système innovant capable de capturer, concentrer et détruire des mélanges de PFAS, y compris les PFAS à chaîne ultra-courte, en un seul procédé. En couplant électrochimie et filtration membranaire, il est ainsi possible d’associer les performances des deux procédés en s’affranchissant du problème de la gestion des concentrâts.

Des matériaux innovants pour l’adsorption de PFAS sont également en cours d’étude. Des chercheurs travaillent sur l’impression 3D par stéréolithographie intégrée au processus de fabrication de matériaux adsorbants. Une résine liquide contenant des polymères et des macrocycles photosensibles est solidifiée couche par couche à l’aide d’une lumière UV pour former l’objet souhaité et optimiser les propriétés du matériau afin d’améliorer ses performances en termes d’adsorption. Ces matériaux adsorbants peuvent être couplés à de l’électroxydation.

Enfin, des recherches sont en cours sur le volet bioremédiation pour mobiliser des micro-organismes, notamment les bactéries et les champignons, capables de dégrader certains PFAS). Le principe consiste à utiliser les PFAS comme source de carbone pour permettre de défluorer ces composés, mais les temps de dégradation peuvent être longs. Ainsi ce type d’approche biologique, prometteuse, pourrait être couplée à d’autres techniques capables de rendre les molécules plus « accessibles » aux micro-organismes afin d’accélérer l’élimination des PFAS. Par exemple, une technologie développée par des chercheurs au Texas utilise un matériau à base de plantes qui adsorbe les PFAS, combiné à des champignons qui dégradent ces substances.

Néanmoins, malgré ces progrès techniques, il reste indispensable de mettre en place des réglementations et des mesures en amont de la pollution par les PFAS, pour limiter les dommages sur les écosystèmes et sur la santé humaine.

The Conversation

Julie Mendret a reçu des financements de l'Institut Universitaire de France (IUF).

Mathieu Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.07.2025 à 17:52

Disneyland Paris, un parc d’attractions… inspiré de merveilles géologiques réelles

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Entre montagnes rouges, grottes mystérieuses et cascades tropicales, Disneyland Paris regorge de paysages spectaculaires. Combien de visiteurs réalisent que ces décors s’inspirent directement de la géologie réelle ?
Texte intégral (3628 mots)
Monument Valley Navajo Tribal Parks, site naturel à cheval sur l’Arizona et l’Utah, aux États-Unis. Domenico Convertini/Flickr, CC BY-SA

La prochaine fois que vous visiterez Disneyland Paris, regardez bien les roches autour de vous. Elles vous racontent une histoire, pas celle des contes de fées, mais celle de la Terre. Une aventure tout aussi fantastique… et bien réelle.


Derrière les artifices d’un parc à thème se cache une fascinante reconstitution de la planète Terre, version Disney. À quel point est-elle fidèle à la réalité ?

Nous vous proposons de nous pencher sur un aspect inattendu de Disneyland : sa dimension géologique. Non pas celle du sous-sol sur lequel le parc est construit, mais celle des paysages qu’il met en scène. Car les Imagineers (les concepteurs des attractions et décors du parc) se sont souvent inspirés de formations naturelles bien réelles pour créer les décors enchanteurs et parfois inquiétants que le public admire chaque jour.

Des montagnes à l’est de Paris

Prenez Big Thunder Mountain, sans doute la montagne la plus iconique du parc, dans la zone inspirée du Far West américain.

train sur montagne rouge
Une montagne russe inspirée du Grand Ouest américain. Eleanor Brooke/Unsplash, CC BY

Ses roches de couleur rouge due à la présence d’oxydes de fer et ses falaises abruptes sont directement inspirées des sites naturels emblématiques de l’Ouest américain tels que Monument Valley Tribal Park, Arches National Park ou encore le Goblin Valley State Park, entre l’Arizona et l’Utah.

Ces sites emblématiques sont constitués de grès vieux de 160 millions à 180 millions d’années, les grès Navajo et Entrada (ou Navajo and Entrada Sandstones). Ces grès de très fortes porosités sont utilisés depuis plusieurs décennies comme des « analogues de roches-réservoirs » par les géologues, c’est-à-dire comme l’équivalent en surface des réservoirs profonds afin de comprendre les écoulements de fluides.

Par ailleurs, outre leur aspect visuellement spectaculaire, c’est dans les Navajo Sandstones que les géologues ont pu élaborer les modèles actuels de croissance des failles. La présence de ces failles et fractures tectoniques est particulièrement bien représentée sur les décors de Big Thunder Mountain. En particulier, les créateurs ont respecté la relation entre l’épaisseur des couches géologiques et l’espacement des fractures, qui correspond à un modèle mathématique précis et respecté.

Cette reproduction n’a rien d’un hasard. Dès les années 1950, Walt Disney en personne a voulu intégrer des paysages naturels dans ses parcs pour leur pouvoir évocateur.

Ces montagnes sont devenues des icônes et se retrouvent dans les films Disney comme Indiana Jones et la dernière croisade (1989) au début duquel le jeune Indy mène son premier combat pour soustraire des reliques aux pilleurs de tombes dans l’Arches National Park. Pour les Imagineers, il s’agissait de recréer un Far West rêvé, mais en s’appuyant sur des repères géologiques bien identifiables, une manière d’ancrer la fiction dans un monde tangible.

arche de grès rouge
La Delicate Arch, dans le parc national d’Arches, dans l’Utah aux États-Unis. Élodie Pourret-Saillet., Fourni par l'auteur

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La grotte du dragon : géologie souterraine et imaginaire

Un autre exemple frappant : la tanière du dragon, nichée sous le château de la Belle au bois dormant. Cette attraction unique à Disneyland Paris met en scène un dragon animatronique de 27 mètres de long, tapi dans une grotte sombre et humide.

Le décor rappelle les endokarsts, ces réseaux de grottes calcaires que l’on trouve notamment dans le sud de la France (comme l’Aven Armand) (Lozère), en Slovénie ou en Chine.

Les stalactites, l’eau ruisselante, les murs rugueux sont autant d’éléments qui évoquent des processus bien réels : dissolution du calcaire par l’eau acide, formation de concrétions, sédimentation…

stalactites et coussins calcaires de l’Aven Armand
Les formations calcaires de l’Aven Armand (Lozère), dans les Cévennes. Petr1888, Wikipédia, CC BY-SA

Seule entorse à cette reconstitution souterraine : le passage brutal d’un calcaire à un substrat granitique, sur lequel repose le château du parc. Or, ces roches ont des origines très différentes : les calcaires sont sédimentaires, les granites magmatiques, formés en profondeur par refroidissement du magma. Leur voisinage est rare, sauf dans certains contextes tectoniques, comme le long de grandes failles ou en zones de métamorphisme de contact, où le granite chauffe et transforme les sédiments voisins. Un exemple existe dans le Massif central, entre granites du Limousin et calcaires du Quercy. Cette configuration, bien que possible, reste peu fréquente et repose sur des structures complexes, difficilement représentables dans un parc. Elle simplifie donc à l’extrême une histoire géologique de centaines de millions d’années.

Mais, évidemment, rien ici n’est naturel. Tout est reconstitué en béton, fibre de verre ou résine. L’effet est cependant saisissant. Les visiteurs plongent dans un univers souterrain crédible, parce qu’il s’appuie sur une géologie fantasmée mais en grande partie réaliste.

La jungle cache des coulées volcaniques figées

Dans la partie du parc appelée Adventure Isle, le visiteur traverse une jungle luxuriante peuplée de galeries souterraines, de ponts suspendus et de cascades. Mais derrière cette végétation exotique se dissimulent aussi des formes géologiques typiques des régions tropicales ou volcaniques : blocs rocheux arrondis, chaos granitiques, pitons rocheux et même orgues basaltiques.

On peut notamment repérer sur le piton rocheux nommé Spyglass Hill, près de la cabane des Robinson et du pont suspendu, des formations en colonnes verticales. Celles-ci évoquent des orgues basaltiques, comme on peut en observer sur la Chaussée des géants en Irlande du Nord ou à Usson (Puy-de-Dôme) en Auvergne.

colonnes de granite de section hexagonale
Les orgues basaltiques d’Usson (Puy-de-Dôme), en Auvergne. Accrochoc, Wikipédia, CC BY-SA

Ces structures géométriques résultent du refroidissement lent de coulées de lave basaltique, qui se contractent en formant des prismes hexagonaux. Bien que les versions Disney soient artificielles, elles s’inspirent clairement de ces phénomènes naturels et ajoutent une touche volcanique au décor tropical.

entrée en grès derrière des racines de faux fromagers
Entrée du temple khmer Ta Phrom, érigé sur le site d’Angkor au Cambodge à la fin du XIIᵉ siècle. Diego Delso, Wikipédia, CC BY-SA

Le décor du temple de l’attraction Indiana Jones et le Temple du Péril, quant à lui, rappelle celui du site d’Angkor au Cambodge, qui est bâti sur des grès et des latérites (formations d’altération se formant sous des climats chauds et humides). Les pierres couvertes de mousse, les failles et les racines qui s’y infiltrent, simulent une interaction entre la roche et le vivant. Ce type de paysage évoque des processus bien réels : altération chimique, érosion en milieu tropical humide et fracturation des roches.

En mêlant ainsi géologie volcanique et paysages tropicaux, cette partie du parc devient une synthèse d’environnements géologiques variés. Cependant, la reconstitution d’un environnement naturel si varié sur une surface limitée impose ici ses limites. En effet, chaque type de roche présenté ici correspond à un environnement géodynamique précis, et l’ensemble peut difficilement cohabiter dans la nature.

Quand Blanche-Neige creusait déjà pour des gemmes : les minéraux à Disneyland

Bien avant les montagnes du Far West ou les grottes de dragons, la première évocation de la géologie dans l’univers Disney remonte à Blanche-Neige, en 1937. Souvenez-vous : les sept nains travaillent dans une mine de gemmes où s’entassent diamants, rubis et autres pierres précieuses étincelantes. Cette scène, réinterprétée dans les boutiques et attractions du parc, a contribué à forger une vision enchantée mais persistante des minéraux dans l’imaginaire collectif.

À Disneyland Paris, on retrouve cette symbolique dans les vitrines, sous le château de la Belle au bois dormant ou dans certaines attractions comme Blanche-Neige et les sept nains, et la grotte d’Aladdin, où les cristaux colorés scintillent dans les galeries minières.

Ces minéraux, bien que fantaisistes, sont souvent inspirés de véritables spécimens comme les diamants, quartz, améthystes ou topazes. Dans la réalité, ces cristaux résultent de processus géologiques lents, liés à la pression, la température et la composition chimique du sous-sol et ces minéraux ne sont pas présents dans les mêmes zones géographiques simultanément.

cristaux roses et blancs, vus de près
Cristaux d’améthyste. Sander van der Wel, Wikipédia, CC BY-SA

Une science cachée mais omniprésente

À première vue, Disneyland Paris semble à des années-lumière des sciences de la Terre. Et pourtant, chaque décor rocheux, chaque paysage artificiel repose sur des connaissances géologiques précises : types de roches, formes d’érosion, couleurs, textures…

Cette approche est d’ailleurs comparable à celle utilisée dans le cinéma, notamment dans les films Disney-Pixar comme Cars (2006), où les décors sont validés par des géologues et géographes.

Pourquoi ne pas profiter d’une visite au parc pour sensibiliser les visiteurs à ces aspects ? Comme cela est déjà le cas pour les arbres remarquables du parc, une description pédagogique des lieux d’intérêt géologique pourrait être proposée. Une sorte de « géologie de l’imaginaire », qui permettrait de relier science et pop culture. Après tout, si un enfant peut reconnaître une stalactite dans une grotte à Disneyland, il pourra peut-être la reconnaître aussi dans la nature.

The Conversation

Les visites géologiques des auteurs au parc DisneyLand Paris n'ont fait l'objet d'aucun financement de la part du parc DisneyLand Paris, ni d'avantages de quelque nature.

PDF

14.07.2025 à 18:38

Notre Soleil deviendra un jour une naine blanche, mais qu’est-ce que c’est exactement ?

Romain Codur, Professeur de Physique, Dynamique des fluides et Modélisation, École de Biologie Industrielle (EBI)

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?
Texte intégral (1761 mots)
Vue d'artiste d'une naine blanche, accrétant des débris rocheux laissés par le système planétaire. NASA, ESA, and G. Bacon (STScI), CC BY

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?


Les naines blanches sont des étoiles de très faible luminosité (environ mille fois moins que le Soleil). Elles sont extrêmement chaudes, les plus jeunes pouvant dépasser 100 000 °C (à comparer aux 5 000 °C à la surface du Soleil). Cependant, elles se refroidissent au cours de leur vie, ce qui fait qu’aujourd’hui la plupart des naines blanches connues ont une température comprise entre 4000 °C et 8000 °C. Cette gamme de températures correspond à une couleur apparente blanche, d’où le nom de « naine blanche ». En effet, en physique, on associe chaque couleur à une température (liée à la longueur d’onde et la fréquence de la lumière correspondante) : le blanc est le plus chaud, le bleu est plus chaud que le rouge, et le noir est le plus froid.

On pourrait penser qu’un astre plus chaud sera plus lumineux, mais ce n’est pas le cas pour les naines blanches. Pour les étoiles « standards » (comme le Soleil), les réactions nucléaires au sein de l’étoile sont responsables de leur émission de lumière. En revanche, il n’y a pas de réactions nucléaires dans une naine blanche, ce qui fait que la seule lumière qu’elle émet provient de son énergie thermique (comme un fil à incandescence dans une ampoule).

Les naines blanches sont d’une masse comparable à la masse du Soleil (2x1030 kg), mais d’un rayon comparable à celui de la Terre (6 400 km, contre 700 000 km pour le Soleil). En conséquence, les naines blanches sont des astres extrêmement denses (les plus denses après les trous noirs et les étoiles à neutrons) : la masse volumique de la matière y est de l’ordre de la tonne par cm3 (à comparer à quelques grammes par cm3 pour des matériaux « standards » sur Terre).

À de telles densités, la matière se comporte d’une manière très différente de ce dont on a l’habitude, et des effets quantiques apparaissent à l’échelle macroscopique : on parle de « matière dégénérée ». La densité y est tellement élevée que les noyaux atomiques sont plus proches des autres noyaux que la distance entre le noyau et les électrons. Par conséquent, les électrons de deux atomes proches devraient se retrouver au même endroit (sur la même « orbitale atomique »). Ceci est interdit par un principe de mécanique quantique appelé le principe d’exclusion de Pauli : de fait, les électrons se repoussent pour ne pas être sur la même orbitale, ce qui engendre une pression vers l’extérieur appelée « pression de dégénérescence ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Naine blanche : l’avenir du Soleil

Dans environ 5 milliards d’années, lorsque le Soleil commencera à manquer d’hydrogène pour ses réactions de fusion nucléaire, il grandira jusqu’à englober au moins Mercure, Vénus, et peut-être même la Terre, formant ainsi une géante rouge. Ensuite, il subira différentes phases de contraction et d’expansion, associées à différentes réactions de fusion de l’hydrogène et de l’hélium le composant. Cependant, il ne sera pas assez chaud pour effectuer les réactions de fusion d’atomes plus lourds (notamment celle du carbone). Par conséquent, la pression (vers l’extérieur du Soleil) ne sera plus suffisante pour compenser la gravité (vers l’intérieur), ce qui conduira à l’effondrement gravitationnel du cœur du Soleil pour former une naine blanche. Les couches périphériques du Soleil formeront quant à elles une nébuleuse planétaire, un nuage de gaz chaud et dense expulsé vers le milieu interplanétaire. Ce gaz formera peut-être plus tard une autre étoile et d’autres planètes…

Vue d’artiste montrant une comète tombant vers une naine blanche
Vue d’artiste montrant une comète tombant vers une naine blanche. NASA, ESA, and Z. Levy (STScI), CC BY

Il existe une masse maximale pour une naine blanche, qui s’appelle masse de Chandrasekhar, et qui vaut environ 1,4 fois la masse du Soleil. Au-delà, les forces de pression internes n’arrivent plus à compenser la gravité. Lorsqu’une naine blanche dépasse la masse de Chandrasekhar en accrétant de la matière, elle s’effondre sur elle-même, donnant alors naissance à une étoile à neutrons ou une supernova. Dans une étoile à neutrons, l’état de la matière est aussi dégénéré, encore plus dense que la naine blanche. Les protons et électrons de la matière composant la naine blanche ont fusionné pour former des neutrons. Une supernova est un objet différent : il s’agit de l’explosion d’une étoile. Ce phénomène est très bref (d’une durée inférieure à la seconde), mais reste visible pendant quelques mois. Les supernovæ sont extrêmement lumineuses, et certaines ont même pu être observées en plein jour.

Si elle ne dépasse pas la masse de Chandrasekhar, la durée de vie théorique d’une naine blanche est si élevée qu’on estime qu’aucune naine blanche dans l’univers n’est pour l’instant en fin de vie, compte tenu de l’âge de l’univers (environ 13,6 milliards d’années). En effet, les naines blanches émettent de la lumière à cause de leur température. Cette lumière est de l’énergie dissipée par la naine blanche, ce qui fait qu’elle perd en énergie au cours de sa vie, et donc elle se refroidit. Plusieurs hypothèses ont été avancées quant au devenir ultime d’une naine blanche, comme les naines noires, ayant une température si basse qu’elles n’émettent plus de lumière.

Comment observer des naines blanches ?

La première naine blanche a été détectée par Herschel (découvreur d’Uranus) en 1783, dans le système stellaire triple 40 Eridani. Ce système est composé de trois étoiles, mais seule la plus lumineuse, 40 Eridani A, a pu être observée directement à l’époque ; l’existence des deux autres, 40 Eridani B (la naine blanche en question) et C, a été déterminée par des calculs de mécanique céleste.

Du fait de leur faible luminosité et de leur petite taille, les naines blanches sont longtemps restées indétectables par nos télescopes. Ce n’est que depuis les progrès technologiques du début du XXe siècle qu’elles sont observables directement. En effet, 40 Eridani B a été identifiée en tant que naine blanche en 1914.

Aujourd’hui, le catalogue Gaia de l’ESA (Agence Spatiale Européenne) compte environ 100 000 naines blanches dans notre galaxie, sur plus d’un milliard de sources lumineuses identifiées.


L’auteur aimerait remercier particulièrement Dr Stéphane Marchandon (École de biologie industrielle) pour des discussions intéressantes et des corrections apportées au présent article.


The Conversation

Romain Codur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
10 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓