LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

24.07.2025 à 20:05

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Raphael Seguin, Doctorant en écologie marine, en thèse avec l'Université de Montpellier et BLOOM, Université de Montpellier

David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier

La majorité des aires marines protégées dans le monde n’offre que peu de protection face à la pêche industrielle, qui échappe souvent à toute surveillance publique.
Texte intégral (3396 mots)

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine. Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l'auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites. Global Fishing Watch, Fourni par l'auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte. Raphael Seguin/Université de Montpellier, Fourni par l'auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l'association BLOOM.

David Mouillot a reçu des financements de l'ANR.

PDF

22.07.2025 à 16:33

Voir la planète respirer depuis l’espace, ou comment mesurer les gaz à effet de serre par satellite

Carole Deniel, Responsable des programmes de composition atmosphérique et Climat, Centre national d’études spatiales (CNES)

François-Marie Bréon, Physicien-climatologue, chercheur au Laboratoire des sciences du climat et de l’environnement, Université Paris-Saclay

La mission MicroCarb va mesurer le CO2 dans l’atmosphère terrestre. Elle décolle le 25 juillet depuis Kourou.
Texte intégral (2956 mots)
Les activités humaines dégagent du CO<sub>2</sub>. Mais les arbres, les tourbières et les autres écosystèmes sont aussi capables d’en rejeter ou d’en stocker. ©CNES/ill. Oliver Sattler, 2021, Fourni par l'auteur

La quantité de CO2 dans l’atmosphère varie à cause des activités humaines, mais aussi en réponse au fonctionnement des écosystèmes, comme les arbres, qui absorbent et émettent du CO2 en respirant.

Grâce aux satellites, on peut ainsi voir la planète « respirer ». La nouvelle mission MicroCarb du Cnes doit décoller le 25 juillet de Guyane et vient rejoindre d’autres programmes pour suivre de près ce facteur important du changement climatique.


Les satellites sont devenus des outils indispensables pour suivre l’évolution du climat. En effet, les mesures denses et continues de la teneur en CO2 permettent d’identifier les sites d’émission ou au contraire d’absorption par les écosystèmes et les activités humaines.

Avec le lancement de la mission MicroCarb, qui est consacrée à la mesure précise de la concentration du CO2 atmosphérique, la France va apporter une contribution inédite à l’amélioration de notre connaissance du cycle du carbone.

Le rôle du CO₂ dans l’effet de serre

Le dioxyde de carbone (CO2) est le principal moteur du changement climatique actuel. Sa concentration dans l’atmosphère a fortement augmenté depuis le début de l’ère industrielle, à cause de la combustion des énergies fossiles et des changements d’usage des terres (en particulier la déforestation).

Ce gaz joue un rôle fondamental dans l’effet de serre, le phénomène naturel par lequel certains gaz atmosphériques absorbent une partie du rayonnement infrarouge émis par la Terre. Le CO2 contribue ainsi à réchauffer la surface. Si cet effet est indispensable à la vie sur notre planète, son amplification par les activités humaines entraîne les modifications du climat dont nous ressentons déjà les conséquences et qui vont encore s’accentuer.


À lire aussi : « Dis-moi, pourquoi il y a le réchauffement climatique ? »



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le changement climatique entraîne déjà des impacts majeurs : élévation du niveau des mers, intensification des événements extrêmes, réduction des glaciers, modification des régimes de précipitations, et bouleversements pour les écosystèmes et les sociétés humaines.

Le cycle du carbone : des mécanismes d’échange entre les écosystèmes déstabilisés par les émissions issues des activités humaines

Mais au-delà de son rôle moteur du changement climatique, le CO2 intervient aussi dans des rétroactions complexes au sein du cycle du carbone.

Malheureusement, les perturbations sur le cycle du carbone interrogent. Aujourd’hui, environ 55 % des émissions de CO2 sont absorbés naturellement par les océans (où il se dissout) et par la végétation terrestre (via la photosynthèse), qui jouent le rôle de « puits de carbone ». Cette absorption atténue partiellement l’accumulation du CO2 dans l’atmosphère. Or, ces puits de carbone (océan et végétation) sont sensibles au changement climatique lui-même, ce qui conduit donc à des « rétroactions » entre climat et cycle du carbone.

foret et zone humide
Les forêts et les tourbières absorbent et stockent le dioxyde de carbone, mais le changement climatique affecte leur capacité à mitiger ainsi l’effet de ce gaz à effet de serre. Juan Davila, Unsplash, CC BY

À lire aussi : La mission Biomass, un satellite pour mieux comprendre comment les forêts stockent (et émettent) du carbone


Par exemple, quelles seront les conséquences s’ils deviennent moins efficaces du fait, par exemple, de la sécheresse récurrente qui atténue la capacité d’une forêt à absorber le carbone, ou d’autres impacts négatifs du changement climatique sur les écosystèmes ? De même, le réchauffement climatique entraîne des conditions favorables aux incendies, qui peuvent ainsi devenir des sources additionnelles et significatives de CO2 vers l’atmosphère.

Les États signataires de l’accord de Paris (2015) se sont engagés à réduire leurs émissions dans le but de limiter le réchauffement climatique à moins de 2 °C, et même de rester aussi proche que possible de 1,5 °C. En 2024, les objectifs apparaissent difficiles à atteindre car, même si les émissions de certains pays ont commencé à décroître, les émissions continuent de croître globalement.

Dans ce cadre, il apparaît nécessaire, d’une part, de disposer d’un système indépendant pour suivre les émissions de CO2 aux échelles nationales et, d’autre part, de suivre l’évolution des flux naturels en réponse au changement climatique. Cela passe par une observation dense et continue des concentrations atmosphériques de CO2.

Mesurer les absorptions et émissions de carbone à l’échelle planétaire est un défi technique

Aujourd’hui, on mesure la concentration atmosphérique de CO2 proche de la surface, sur une centaine de stations très inégalement réparties sur la Terre. La série de données la plus iconique est celle de Mauna Loa, au sommet d’une des îles de l’archipel d’Hawaï, qui décrit la composition atmosphérique en continu depuis 1958. Depuis, plusieurs réseaux d’observation ont été mis en place et regroupés pour l’Europe dans le programme ICOS en 2015.

Quelques campagnes de mesures spécifiques apportent, par ailleurs, une description résolue sur la verticale depuis la surface jusqu’à près de 30 kilomètres d’altitude.

Malgré ces observations, la densité d’observations reste très insuffisante pour les objectifs scientifiques et sociétaux décrits ci-dessus. C’est pourquoi les satellites apportent un complément nécessaire, avec une mesure certes moins précise que celles des observations in situ, mais avec une densité très largement supérieure.

décollage de Véga-C
Le lanceur léger européen décollera dans la nuit du 25 au 26 juillet 2025 du Centre spatial guyanais pour placer en orbite les satellites d’observation français MicroCarb et CO3D (ici pris en photo lors du décollage avec la mission Biomass à bord). ©CNES/ESA/Optique Vidéo CSG/S. Martin, 2025, Fourni par l'auteur

Une dynamique internationale depuis quinze ans

Dans les rapports internationaux intergouvernementaux GEO (intergovernmental Group on Earth Observations) ou des agences spatiales du CEOS (Committee on Earth Observation Satellites), les groupes d’experts sont unanimes pour reconnaître le besoin de mesure de CO2 depuis l’espace.

Ainsi, la Jaxa (Japon) puis la Nasa (États-Unis) se sont lancé, dès 2009, dans la mesure du CO2 depuis l’espace.

Depuis quelques années, la Chine dispose également d’un programme spécifique ambitieux, avec de nombreux capteurs utilisant diverses technologies déjà en orbite, mais dont malheureusement les données restent très peu distribuées à la communauté internationale (communication entre agences).

En Europe, la Commission européenne a étendu son programme spatial de surveillance environnementale opérationnelle (appelé Copernicus, dont l’implémentation a été confiée à l’Agence spatiale européenne, l’ESA) – dont les missions de surveillance du CO₂ atmosphérique sont une priorité. Ainsi, les données de la mission européenne CO2M sont attendues d’ici fin 2027 pour permettre de mieux surveiller depuis l’espace les émissions anthropiques de CO2 grâce à une résolution spatiale de quatre kilomètres carrés et une fauchée de plus de 200 kilomètres permettant d’obtenir une image des panaches issus des émissions intenses localisées.

Avec le lancement prévu cet été de sa mission MicroCarb, développée en collaboration avec l’Agence spatiale du Royaume-Uni et la Commission européenne, le Centre national d’études spatiales (Cnes) va ouvrir la voie en Europe à des données précises de concentration de CO2.

La mission MicroCarb

MicroCarb est un microsatellite d’environ 200 kilogrammes équipé d’un spectromètre. Celui-ci mesure le rayonnement solaire réfléchi par la surface terrestre, après une double traversée dans l’atmosphère. La mesure à très haute résolution spectrale permet d’identifier les raies d’absorption du CO2, dont les intensités peuvent être reliées à la quantité de CO2 dans l’atmosphère.

Avec des outils sophistiqués qui prennent en compte l’ensemble de la physique de l’interaction entre le rayonnement solaire et les molécules de l’atmosphère, on peut en déduire une estimation de la concentration atmosphérique de CO2 avec une précision d’environ 0,25 % sur une surface d’environ 40 kilomètres carrés.

simulation du mode exploratoire pour observer les villes
Le satellite Microcarb va tester un nouveau mode de fonctionnement, qui permet de zoomer fortement pour avoir une résolution de l’ordre de 2 x 2 kilomètres carrés. Cette fonctionnalité est dite exploratoire. ©CNES, Fourni par l'auteur

Le satellite est sur une orbite héliosynchrone pour faire des mesures autour de midi, ce qui permet d’avoir un éclairement solaire d’une intensité nécessaire à la mesure. Cette mission va donc assurer une continuité avec les missions précédentes, en particulier celle de la Nasa dont la poursuite semble fortement compromise suite au budget prévisionnel du gouvernement Trump pour 2026, notamment pour les sciences de la Terre.

Par ailleurs, le spectromètre de MicroCarb est fondé sur un concept optique innovant par sa compacité permise par l’utilisation d’un seul détecteur pour l’ensemble des canaux de mesures et d’une bande spectrale inédite pour l’amélioration de la précision de mesure. En fonction des performances de MicroCarb, ces innovations pourraient être reprises pour les prochaines missions déjà en préparation.

The Conversation

Carole Deniel travaille à l'Agence Spatiale Francaise, le CNES.

François-Marie Bréon est Responsable Scientifique de la mission MicroCarb. Il est professeur invité au Collège de France sur l'année universitaire 2024-2025. Par ailleurs, il a une implication citoyenne en tant que vice-président et porte-parole de l'Association Française pour l'Information Scientifique (Afis).

PDF

22.07.2025 à 11:46

Ces cellules du cerveau qui pourraient aider à lutter contre l’obésité

Enrica Montalban, Post-doctorante, Inrae

Claire Martin, Directrice de recherche CNRS, Université Paris Cité

Serge Luquet, Directeur de recherche CNRS, Université Paris Cité

Moins connus que les neurones, les astrocytes sont des cellules essentielles au fonctionnement du cerveau. Une nouvelle étude chez la souris révèle leur rôle dans le contexte de l’obésité.
Texte intégral (2183 mots)
Les astrocytes, ici en vert, au milieu des neurones en rouge, sont un type de cellules présentes dans le cerveau. Dchordpdx/Wikipedia, CC BY

Bien que leur rôle soit moins connu que celui des neurones, les astrocytes sont des cellules essentielles au fonctionnement du cerveau. Une nouvelle étude, chez la souris, parue dans la revue Nature communications révèle le rôle des astrocytes du striatum, une structure du circuit de la récompense, dans le contexte de l’obésité induite par une alimentation enrichie en graisses et en sucres. Ces cellules pourraient représenter une cible intéressante pour le traitement des maladies métaboliques.


Le cerveau est constitué de milliards de neurones. Ce sont des cellules excitables, c’est-à-dire qu’elles peuvent générer des potentiels d’actions et transmettre des informations aux autres neurones sous forme de courant électrique. Cependant, les neurones ne constituent que la moitié des cellules du cerveau, l’autre moitié étant constitué de cellules gliales, parmi lesquelles on trouve les astrocytes. Ces derniers sont impliqués dans de nombreuses pathologies du cerveau telles que les maladies neurodégénératives (la maladie d’Alzheimer ou de Parkinson), les troubles psychiatriques ou l’épilepsie.

Contrairement aux neurones, les astrocytes ne peuvent pas générer de courants électriques, mais présentent des variations de leur concentration en calcium intracellulaire. Le calcium intracellulaire est impliqué dans de nombreux processus liés au fonctionnement des cellules et aurait un rôle indispensable pour la physiologie des astrocytes. Le fait que les astrocytes soient silencieux pour les méthodes classiques d’enregistrement de l’activité cérébrale telles que l’électroencéphalogramme (ECG) a rendu leur étude beaucoup plus lente et difficile. Par conséquent, leur rôle a été largement sous-estimé et nous sommes encore loin d’avoir élucidé la manière dont ils communiquent avec les neurones.

C’est avec le développement d’outils d’imagerie ciblant des acteurs cellulaires spécifiques que leur rôle dans les processus cérébraux peut enfin être élucidé. Les résultats que nous avons obtenus permettent de mettre en évidence plusieurs caractéristiques de l’activité astrocytaire dans le contexte de l’obésité induite par l’alimentation enrichie en graisse et en sucre.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Quand le corps n’équilibre plus la balance énergétique

L’obésité est un problème majeur de santé publique, affectant 17 % de la population française et accroissant le risque relatif d’un ensemble de pathologies : par exemple, les maladies cardiaques, l’hypertension, le diabète de type 2, des maladies du foie et certaines formes de cancer. Cette pathologie est complexe et implique différents facteurs dont la contribution au développement de l’obésité varie considérablement d’un individu à l’autre : ces facteurs sont génétiques, environnementaux (comme le stress ou la qualité du sommeil) ou liés aux habitudes alimentaires. Une alimentation enrichie en graisses et en sucres est définitivement une coupable identifiée.

Notre corps maintient un état d’équilibre appelé homéostasie, grâce à un mécanisme de régulation précis qui équilibre les apports nutritionnels et les dépenses énergétiques. Cet équilibre de la balance énergétique est réalisé grâce à des circuits cérébraux bien identifiés, impliquant notamment l’hypothalamus. Toutefois, un autre moteur puissant de l’alimentation est l’aspect hédonique de la nourriture, c’est-à-dire le plaisir que nous trouvons à consommer des aliments appétissants, au-delà des besoins énergétiques du corps. Cette motivation à manger pour le plaisir repose notamment sur la libération de dopamine au niveau d’une région cérébrale appelée striatum.

Il a été démontré que l’obésité induite par l’alimentation était associée à des altérations de la transmission de la dopamine, à des dérèglements alimentaires de type addictif/compulsif ainsi qu’à une altération de la flexibilité cognitive, c’est-à-dire la capacité à s’adapter facilement à de nouvelles situations.

Les astrocytes, des cellules protectrices des neurones

Si l’implication des neurones (qui libèrent ou répondent à la dopamine) a été beaucoup étudiée dans le cadre de ces processus physiologiques et physiopathologiques, le rôle des astrocytes a longtemps été négligé.

L’excès de nutriments favorise des mécanismes inflammatoires dans le cerveau qui s’accompagnent de la libération de substances susceptibles de modifier le fonctionnement des neurones et des astrocytes. Or les astrocytes occupent une place stratégique dans le cerveau, à l’interface entre les vaisseaux sanguins et les neurones, ces cellules pivots permettraient de contrôler aussi bien l’information neuronale que l’apport énergétique. En condition d’excès nutritionnel dans la circulation, elles pourraient constituer un premier rempart qui protégerait les neurones des altérations induites par les éléments circulant dans le sang.

Coupe de cerveaux de souris montrant les astrocytes (en vert) au niveau du striatum. L’obésité modifie la forme des astrocytes qui deviennent réactifs, un signe d’inflammation cérébrale. Montalban et al./Nature Communication, Fourni par l'auteur

Dans notre travail, réalisé chez la souris, nous montrons tout d’abord que les régimes gras affectent la structure et la fonction des astrocytes du striatum.

Nous avions déjà caractérisé de telles modifications dans l’hypothalamus, la région impliquée dans l’initiation de la prise alimentaire et qui est en contact étroit avec le compartiment sanguin, mais elles étaient très peu caractérisées dans le striatum. Nous montrons, d’une part, une réactivité des astrocytes, qui s’exprime par des modifications morphologiques, et, d’autre part, des changements dans la dynamique des flux calciques, susceptibles d’altérer leur communication avec les neurones de la structure.

Un impact sur la flexibilité cognitive et le métabolisme énergétique

Cette observation faite, nous avons décidé de manipuler directement les astrocytes par une approche permettant de forcer une cascade de signalisation dans les cellules en insérant spécifiquement dans les astrocytes un récepteur synthétique jouant le rôle d’interrupteur. Cette approche permet en particulier d’induire une vague de calcium (un second messager clé au niveau intracellulaire) afin d’en observer les conséquences.

Que se passe-t-il si l’on augmente artificiellement la quantité de calcium et que l’on « active » les astrocytes ? Est-ce que cela a un impact sur l’activité neuronale et le comportement des souris ?

L’activation de cet interrupteur moléculaire et l’afflux de calcium cohérent dans la population d’astrocytes ciblée a effectivement eu pour conséquence de modifier la cinétique et la réponse des neurones avoisinants démontrant ainsi, pour la première fois, que la manipulation des astrocytes pouvait interférer avec les réseaux neuronaux.

Nous avons appliqué cette technique en comparant des souris nourries avec un régime standard avec des souris rendues obèses par un régime enrichi en graisses et en sucres. Les souris sous régime enrichi présentent des défauts cognitifs qui s’expriment par une difficulté à s’adapter à une nouvelle situation. Dans notre cas, les souris devaient apprendre qu’une récompense était située dans le bras gauche d’un labyrinthe, puis nous avons examiné comment elles s’adaptaient si nous changions le bras récompensé.

Dans ce contexte, les souris nourries avec un régime enrichi avaient du mal à s’adapter, or l’activation forcée des astrocytes du striatum dorsal a permis aux animaux de réapprendre facilement la tâche, et ce, en absence de perte de poids. La manipulation des astrocytes du striatum a ainsi permis de corriger l’altération cognitive induite par le régime riche.

Si le striatum est bien connu pour son rôle dans les processus cognitifs et motivationnels, cette structure cérébrale n’est pas traditionnellement associée à la régulation du métabolisme corporel. Notre étude apporte un élément supplémentaire dans ce sens. En effet, nous montrons que la manipulation in vivo des astrocytes dans le striatum exerce un contrôle sur le métabolisme énergétique de l’animal en affectant particulièrement le choix des substrats métabolique (lipides ou sucres) utilisés par la souris pour assurer son métabolisme. Après activation des astrocytes, elles utilisent plus de lipides.

Ce travail révèle un rôle nouveau pour les astrocytes dans les circuits de la récompense. Ils participent en effet au contrôle des fonctions cognitives et nos résultats illustrent pour la première fois leur capacité à restaurer une fonction cognitive dans un contexte obésogène. D’autre part, ce travail établit un lien direct entre les astrocytes du striatum et le contrôle du métabolisme énergétique global de l’animal.

Une approche prometteuse consisterait à développer des stratégies thérapeutiques ciblant spécifiquement les astrocytes, plutôt que les neurones, au sein du système de la récompense, dans le traitement de l’obésité et, plus largement, des pathologies métaboliques.

The Conversation

Serge Luquet a reçu des financements de l’Agence Nationale de la Recherche (ANR) ANR-19-CE37-0020-02, ANR-20-CE14-0020, and ANR-20-CE14-0025-01, la Fondation pour la Recherche Médicale (FRM) FRM Project #EQU202003010155.

Claire Martin et Enrica Montalban ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

22.07.2025 à 10:22

Le mode privé vous garantit-il l’anonymat sur Internet ?

Sabrine Mallek, Professeure Assistante en Transformation Digitale, ICN Business School

La plupart des navigateurs proposent une «&nbsp;navigation privée&nbsp;», souvent perçue comme un moyen de surfer anonymement. Pourtant, ce mode ne garantit pas l’anonymat en ligne.
Texte intégral (967 mots)

La plupart des navigateurs proposent une « navigation privée », souvent perçue comme un moyen de surfer anonymement. Pourtant, ce mode ne garantit pas l’anonymat en ligne, et de nombreux internautes surestiment sa portée.


La navigation privée permet d’éviter que quelqu’un d’autre ayant accès à votre ordinateur voie vos activités en ligne a posteriori. C’est utile, par exemple, sur un ordinateur public ou partagé, pour ne pas laisser d’identifiants enregistrés ni d’historique compromettant.

Cependant, il est important de comprendre que cette confidentialité est avant tout locale (sur votre appareil). Le mode privé n’implique pas de naviguer de façon anonyme sur le réseau Internet lui-même. Il ne s’agit pas d’un « bouclier d’invisibilité » vis-à-vis des sites web visités, de votre fournisseur d’accès à Internet (FAI), ou de votre employeur.

Comme l’indique la Commission nationale de l’informatique et des libertés (CNIL), même en mode privé, les sites peuvent collecter des informations via des cookies (des petits fichiers qui enregistrent vos préférences et activités en ligne) ou des techniques de fingerprinting, qui permettent d’identifier un utilisateur de façon unique en analysant les caractéristiques techniques de son navigateur.

Le mode privé présente de nombreuses limites

Des études confirment les limites techniques du mode privé. Des traces subsistent malgré la fermeture de la session, en contradiction avec ce qu’affirme la documentation du navigateur. Une analyse sur Android a révélé que la mémoire vive conserve des données sensibles : mots-clés, identifiants, cookies, récupérables même après redémarrage.

Le mode privé ne bloque pas les cookies publicitaires, il les supprime simplement en fin de session. Lorsqu’on revient sur un site dans une nouvelle session privée, celui-ci ne « se souvient » pas des choix précédents : il faut donc souvent redéfinir ses préférences (accepter ou refuser les cookies). Les bannières de consentement aux cookies, bien connues des internautes européens depuis l’entrée en vigueur du Règlement général sur la protection des données (RGPD) et de la directive ePrivacy, réapparaissent donc systématiquement. La fatigue du consentement pousse de nombreux internautes à tout accepter sans lire.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


En France, 65 % des internautes acceptent systématiquement les cookies, malgré une meilleure information sur le sujet ces dernières années. Pourtant, les internautes sont conscients des risques liés à leur vie privée en ligne, mais n’agissent pas systématiquement, souvent par manque de connaissances ou de confiance dans les outils disponibles. Certains sites dissimulent même l’option « Refuser » pour vous influencer : un panneau bien conçu peut réduire de moitié les acceptations.

Quelles alternatives pour se protéger réellement ?

Le mode privé ne suffit pas à garantir l’anonymat en ligne. Pour mieux protéger sa vie privée, il faut combiner plusieurs outils.

Un VPN (virtual private network ou réseau privé virtuel, en français) crée un tunnel sécurisé entre votre appareil et Internet, permettant de naviguer de façon plus confidentielle en chiffrant vos données et en masquant votre adresse IP. En 2024, 19 % des utilisateurs de VPN français souhaitent avant tout cacher leur activité, et 15 % protéger leurs communications.

Un navigateur comme Tor va plus loin : il rebondit vos requêtes via plusieurs relais pour masquer totalement votre identité. C’est l’outil préféré des journalistes ou militants, mais sa lenteur peut décourager un usage quotidien. Des alternatives comme Brave ou Firefox Focus proposent des modes renforcés contre les traqueurs, tandis que des extensions comme uBlock Origin ou Privacy Badger bloquent efficacement pubs et trackers. Ces extensions sont compatibles avec les principaux navigateurs comme Chrome, Firefox, Edge, Opera et Brave.

Il est aussi essentiel d’adopter une hygiène numérique : gérer les cookies, limiter les autorisations, préférer des moteurs comme DuckDuckGo (qui ne stockent pas vos recherches, ne vous profilent pas et bloquent automatiquement de nombreux traqueurs) et éviter de centraliser ses données sur un seul compte. En ligne, la vraie confidentialité repose sur une approche globale, proactive et éclairée.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.07.2025 à 08:12

Échecs : quand un professeur de statistiques enquête sur des allégations de tricherie au plus haut niveau

Jeffrey S. Rosenthal, Professor of Statistics, University of Toronto

Lorsqu’un ancien champion du monde d’échecs a laissé entendre qu’un autre grand maître trichait sur la plateforme en ligne «&nbsp;Chess.com&nbsp;», un statisticien a été appelé pour examiner les preuves.
Texte intégral (1210 mots)

Lorsque l’ancien champion du monde d’échecs Vladimir Kramnik a laissé entendre qu’Hikaru Nakamura, l’un des meilleurs joueurs du monde actuellement, trichait sur la plateforme en ligne Chess.com, un statisticien a été appelé pour enquêter.


En tant que professeur de statistiques, il n’est pas fréquent que je sois contacté directement par le PDG d’une entreprise valant plusieurs millions de dollars, et encore moins au sujet d’une histoire d’allégations de tricherie et de malversations impliquant des champions du monde d’échecs.

C’est pourtant ce qui s’est passé l’été dernier. Erik Allebest, PDG du plus grand site d’échecs en ligne au monde, Chess.com, m’a demandé d’enquêter sur les allégations de l’ancien champion du monde d’échecs Vladimir Kramnik concernant les longues séries de victoires d’un des meilleurs joueurs du monde, l’Américain Hikaru Nakura.

Kramnik a déclaré que ces séries avaient une très faible probabilité de se produire et qu’elles étaient donc très suspectes. Il n’a pas formellement accusé Hikaru de tricherie, mais le sous-entendu était clair. Sur Internet, les esprits se sont vite échauffés : les partisans de Kramnik postant des commentaires virulents (souvent en russe) sur cette présumée tricherie, tandis que de nombreux joueurs de Chess.com et partisans d’Hikaru rejetaient les accusations.

Qui a raison ? Qui a tort ? Est-il possible de trancher ?

Erik Allebest m’a demandé de réaliser une analyse statistique indépendante et impartiale pour déterminer le degré d’improbabilité de ces séries de victoires.

Le calcul de probabilités

Pour résoudre ce problème, j’ai d’abord dû calculer la probabilité que chaque joueur gagne ou fasse match nul dans chaque partie. Les joueurs peuvent avoir des niveaux de jeu très différents. Les meilleurs ont évidemment plus de chances de vaincre des adversaires moins expérimentés. Mais à quel point ?

Chess.com attribue un classement à chaque joueur qui varie après chaque partie, et ces notes m’ont été communiquées. Mon analyse a suggéré qu’un modèle mathématique pouvait fournir une estimation précise des probabilités de victoire, de défaite ou de nulle pour chaque partie.

En outre, les écarts par rapport à cette probabilité dans les résultats de parties successives étaient approximativement indépendants, de sorte que l’influence d’une partie sur la suivante pouvait être ignorée en toute sécurité. J’ai ainsi obtenu une probabilité claire que chaque joueur gagne (ou perde) chaque partie.

Je pouvais alors analyser ces séries de victoires qui avaient provoqué tant de débats enflammés. Il s’est avéré qu’Hikaru Nakamura, contrairement à la plupart des autres joueurs de haut niveau, avait joué de nombreuses parties contre des joueurs beaucoup plus faibles. Cela lui donnait donc une très grande probabilité de gagner chaque partie. Mais malgré cela, est-il normal d’observer de si longues séries de victoires, parfois plus de 100 parties d’affilée ?

Tester le caractère aléatoire

Pour le vérifier, j’ai effectué ce que l'on appelle des simulations de Monte Carlo, qui répètent une expérience en intégrant des variations aléatoires.

J’ai codé des programmes informatiques pour attribuer au hasard des victoires, des défaites et des nuls à chaque partie d’Hikaru Nakamura, selon les probabilités de mon modèle. J’ai demandé à l’ordinateur de mesurer à chaque fois les séries de victoires les plus surprenantes (les moins probables). Cela m’a permis de mesurer comment les séries réelles d’Hikaru pouvaient se comparer aux prédictions.

J’ai constaté que dans de nombreuses simulations, les résultats simulés comprenaient des séries tout aussi « improbables » que les séries réelles.

Cela démontre que les résultats d’Hikaru aux échecs étaient à peu près conformes à ce que l’on pouvait attendre. Il avait une telle probabilité de gagner chaque partie, et avait joué tellement de parties sur Chess.com, que des séries de victoires aussi longues étaient susceptibles d’émerger selon les règles des probabilités.

Les réponses à mes découvertes

J’ai rédigé un bref rapport à propos de mes recherches et l’ai envoyé à Chess.com.

Le site a publié un article, qui a suscité de nombreux commentaires, pour la plupart favorables.

Nakamura a ensuite publié son propre commentaire en vidéo, soutenant également mon analyse. Pendant ce temps, Kramnik a publié une vidéo de 29 minutes critiquant mes recherches.

Ce dernier ayant soulevé quelques points importants, j’ai rédigé un addendum à mon rapport pour répondre à ses préoccupations et montrer qu’elles n’avaient pas d’incidence sur la conclusion. J’ai également converti mon rapport en un article scientifique que j’ai soumis à une revue de recherche.

Puis je me suis ensuite consacré à mes tâches d’enseignant et j’ai laissé de côté les controverses sur les échecs jusqu’à ce que je reçoive une réponse de plus de six pages en décembre dernier. Il s’agissait de trois rapports d’arbitres et de commentaires d’éditeurs de la revue dans laquelle j’avais soumis mon article scientifique.

J’ai également découvert que Kramnik avait posté une deuxième vidéo de 59 minutes critiquant mon addendum et soulevant d’autres points.

J’ai tenu compte des points supplémentaires soulevés par Kramnik et par les arbitres tout en révisant mon article en vue de sa publication. Il a finalement été publié dans Harvard Data Science Review.

J’étais heureux de voir mes résultats publiés dans une prestigieuse revue de statistiques, ce qui leur conférait un sceau d’approbation officiel. Et peut-être, enfin, de régler cette controverse sur les échecs au plus haut niveau.

The Conversation

Jeffrey S. Rosenthal reçoit des fonds de recherche du CRSNG du Canada, mais n'a reçu aucune compensation de Chess.com ou de qui que ce soit d'autre pour ce travail.

PDF

21.07.2025 à 18:10

La lune glacée Europe, un phare scintillant dans l’infrarouge ?

Cyril Mergny, Postdoctoral research fellow, Université Paris-Saclay

Frédéric Schmidt, Professeur, Planétologie, Université Paris-Saclay

Si vous pouviez voir dans l’infrarouge, avec un peu de patience, vous verriez Europe clignoter.
Texte intégral (2729 mots)
La glace d’eau à la surface d’Europe change au cours des saisons - ici, le taux de glace cristalline sur le premier micromètre d’épaisseur de glace au cours d'un cycle de saisons de 12 ans. Fourni par l'auteur

Europe est une lune de Jupiter entièrement recouverte d’une épaisse croûte de glace. Sous cette carapace, tout autour de la lune, se trouve un océan global d’eau liquide.

Cette lune intéresse particulièrement les scientifiques depuis que les données de la sonde Galileo, à la fin des années 1990, ont révélé des conditions qui pourraient être propices à l’émergence de la vie dans cet océan sous-glaciaire. En effet, c’est le seul endroit dans le système solaire (en dehors de la Terre) où de l’eau liquide est en contact direct avec un manteau rocheux à la base de l’océan. S’il y a du volcanisme sous-marin sur Europe, cela fournirait une source d’énergie, qui, avec l’eau, est l’un des ingrédients essentiels pour générer les briques de base du vivant.

Mais il reste encore de nombreuses inconnues sur la glace en surface d’Europe. Deux nouvelles études lèvent le voile sur un phénomène inattendu.


Grâce à deux nouvelles études, l’une théorique et l’autre issue des observations du télescope James-Webb, nous comprenons aujourd’hui mieux la surface glacée d’Europe. Nous avons notamment montré que la structure atomique de la glace change au fil des saisons, ce que l’on peut voir dans la lumière réfléchie par cette lune, un peu comme un phare qui scintillerait dans la nuit.

Ces nouvelles connaissances seront utiles pour, un jour, envisager de poser un atterrisseur sur Europe, mais aussi pour mieux comprendre les processus géologiques qui façonnent la surface – on ne sait toujours pas, par exemple, bien expliquer l’origine des « rayures » qui façonnent la surface d’Europe.

Dans les prochaines années, nous espérons que le scintillement du « phare atomique » d’Europe pourra être réellement observé, notamment par la sonde Europa Clipper de la Nasa ainsi par que la mission JUICE de l’ESA.

La glace sur Terre et la glace dans l’espace sont différentes

Sur Terre, la glace d’eau dans son environnement naturel se présente sous une seule forme : une structure cristalline, communément appelée « glace hexagonale ».

Cependant, dans l’espace, comme sur Europe, c’est une autre histoire : il fait tellement froid que la glace d’eau peut adopter des formes plus exotiques avec différentes propriétés.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ainsi, la forme de glace la plus répandue dans l’Univers est la glace dite « amorphe ».

C’est une forme de glace où l’arrangement des molécules d’eau ne présente aucun ordre à grande échelle, contrairement à la glace cristalline qui, elle, possède des motifs répétitifs.

Une analogie à notre échelle humaine serait un étalage d’oranges. Dans le cas cristallin, les éléments sont tous bien rangés, sous la forme d’un réseau périodique. Dans le cas amorphe, les éléments sont en vrac sans aucune position régulière.

des tas d’agrumes
Les agrumes, un peu comme les atomes et molécules, peuvent être disposés de façon plus ou moins organisée. À gauche, il s’agit d’un analogue d’une organisation cristalline à l’échelle atomique, avec des atomes « bien rangés » ; à droite, l’organisation est aléatoire, analogue à une organisation amorphe à l’échelle atomique. Jen Gunter et Maria Teneva/Unsplash, CC BY

Notre vie quotidienne comprend des exemples de versions amorphes ou cristallines d’un même matériau : par exemple, la barbe à papa contient une forme amorphe du sucre, alors que le sucre de cuisine usuel est cristallin.

En fait, nous nous attendons à ce que le système solaire externe ait de la glace principalement sous une forme amorphe, en premier lieu parce qu’à très faible température (-170 °C sur Europe), les molécules n’ont pas assez d’énergie pour s’organiser correctement ; mais également parce que la structure cristalline a tendance à se briser sous l’effet des bombardements de particules en provenance du Soleil, déviées par la magnétosphère de Jupiter, comme si on envoyait une orange perturbatrice dans un étal bien rangé.

Comparaison de structure de la glace
La glace d’eau peut prendre différentes formes : structure cristalline à gauche et structure amorphe à droite. Cyril Mergny, Fourni par l'auteur

Les observations spatiales précédentes des années 1990 puis dans la décennie 2010 avaient montré que la glace d’Europe est un mélange de formes amorphes et cristallines. Mais, jusqu’à présent, aucun modèle n’expliquait pourquoi.

Une structure qui change avec les saisons

Pour la première fois, nous avons quantifié la compétition entre la cristallisation, due à la température pendant les heures les plus chaudes de la journée, et l’amorphisation induite par le bombardement en surface de particules issues de la magnétosphère de Jupiter.

Nous avons ainsi montré que la cristallinité est stratifiée sur Europe : une très fine couche en surface est amorphe, tandis que la couche en profondeur est cristalline.

Plus remarquable encore, la simulation a révélé que la cristallinité de la glace en surface pouvait varier selon les saisons ! Bien que les variations saisonnières n’affectent pas la quantité de particules qui bombardent Europe, il fait plus chaud en été, ce qui rend la cristallisation plus efficace et fait ainsi pencher la balance en sa faveur. En été, il fait en moyenne 5 °C plus chaud qu’en hiver, ce qui rend la glace jusqu’à 35 % plus cristalline qu’en hiver dans certaines régions.

Nous en avons conclu que si l’on observait Europe au fil des saisons à travers un spectroscope, cela donnerait l’impression que la surface « scintille » sur une période de douze ans (la durée d’une année sur Europe), comme un phare dans la nuit.

Comment fait-on pour connaître la structure atomique de la glace à une distance de 700 millions de kilomètres ?

Simultanément à notre étude, des astronomes de la Nasa ont observé Europe avec le puissant télescope James-Webb. Leur étude vient de montrer que les résultats de nos simulations sont en accord avec leurs observations. En effet, bien que les deux approches utilisent des méthodes radicalement différentes, elles aboutissent aux mêmes conclusions.

Grâce au spectromètre du James-Webb, les chercheurs ont pu estimer, à distance, la structure atomique de la glace à la surface d’Europe (sur le premier micromètre d’épaisseur). Pour cela, ils ont analysé la lumière réfléchie par Europe dans l’infrarouge (légèrement plus rouge que ce que notre œil peut percevoir) à la longueur d’onde de 3,1 micromètres qui reflète l’état de cristallisation de la glace d’eau.

Ils ont ainsi établi une carte de cristallinité de la lune glacée. En comparant leur carte observée avec celle que nous avons simulée, nous constatons un très bon accord, ce qui renforce notre confiance dans ces résultats.

Sur Europe, la surface est donc parsemée de régions avec de la glace d’eau amorphe et d’autres avec de la glace d’eau cristalline, car la température varie selon les zones. Globalement, les régions les plus sombres absorbent davantage les rayons du Soleil, ce qui les réchauffe et, comme sur Terre, les températures sont plus élevées près de l’équateur et plus basses près des pôles.

comparaison des résultats des deux études
Comparaison de la cristallinité sur l’hémisphère arrière d’Europe : observations versus simulation. À gauche : l’observation par le télescope James-Webb de la profondeur de bande à la longueur d’onde 3,1 micromètres, caractéristique de la glace cristalline. À droite, les résultats de cristallinité de nos dernières simulations sur la même zone. Les deux études indiquent qu’en proche surface, les régions Tara et Powys sont composées de glace cristalline, tandis que la glace amorphe est dominante dans les latitudes nord environnantes. Cartwright et collaborateurs 2025 ; Mergny et collaborateurs 2025, Fourni par l'auteur

Cependant, l’étude observationnelle utilisant le télescope James-Webb a capturé une photo d’Europe. Elle ne peut donc pas, pour le moment, détecter les scintillements dans l’infrarouge, car il faudrait observer la surface au cours de plusieurs années pour distinguer un changement. Ces fluctuations de la surface sont une nouveauté que nous avons découverte dans notre étude de simulation, et elles restent à être confirmées par des observations.

Nous espérons que les sondes JUICE et Europa Clipper pourront bientôt observer ces oscillations saisonnières de la lumière réfléchie par Europe dans l’infrarouge.

Notre intérêt se porte désormais aussi sur d’autres lunes glacées de Jupiter, où une cohabitation entre glace amorphe et glace cristalline pourrait exister, comme sur Ganymède et sur Callisto, mais aussi sur d’autres corps tels qu’Encelade, en orbite autour de Saturne, ou encore sur des comètes.

The Conversation

Frédéric Schmidt est Professeur à l'Université Paris-Saclay, membre de l'Institut Universitaire de France (IUF). Il a obtenu divers financements publics (Université Paris-Saclay, CNRS, CNES, ANR, UE, ESA) ainsi que des financements privés (Airbus) pour ses recherches.

Cyril Mergny ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
6 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓