27.08.2025 à 17:10
Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
Le son déchire le silence de la nuit : un sanglot étouffé, puis un hoquet, qui dégénère rapidement en un vagissement aigu et frénétique. Pour tout parent, soignant ou soignante, c’est un appel à l’action familier et urgent. Mais un appel à quoi ? Le bébé a-t-il faim ? A-t-il mal ? Se sent-il seul ? Ou est-il simplement inconfortable ? Ces cris peuvent-ils être compris instinctivement par les parents ?
En tant que bioacousticien, j’ai passé des années à étudier les communications sonores des animaux : des cris des bébés crocodiles, encore dans leurs œufs incitant leur mère à creuser le nid, aux cris des oiseaux diamants mandarins, permettant la reconnaissance au sein du couple. Alors que nous comprenons de mieux en mieux comment et pourquoi les animaux non humains communiquent par des sons, les vocalisations humaines non verbales sont encore peu étudiées. J’ai ainsi été surpris de découvrir, en tournant mon attention vers notre propre espèce, que les pleurs des bébés humains recelaient autant, sinon plus, de mystère.
Pourtant, les pleurs causent parfois bien des soucis aux parents et aux autres personnes qui s’occupent d’un bébé. Au-delà de ces soucis du quotidien, les pleurs de nourrisson peuvent entraîner, chez des personnes qui se sentent dépassées par la situation, une perte du contrôle d’elles-mêmes et être à l’origine du syndrome du bébé secoué (SBS), une maltraitance aux conséquences, dans certains cas, fatales pour l’enfant.
Depuis plus d’une décennie, mes collègues et moi, à l’Université et au CHU de Saint-Étienne, enregistrons des bébés, appliquons les outils de l’analyse des sons, et menons des expériences psychoacoustiques et de neuro-imagerie. Nos découvertes remettent en question nos croyances les plus établies et offrent un nouveau cadre, fondé sur des preuves, pour comprendre cette forme fondamentale de communication humaine.
Première constatation, et peut-être l’une des plus importantes : il est impossible de déterminer la cause d’un pleur de bébé uniquement à partir de sa sonorité.
De nombreux parents subissent une pression immense pour devenir des « experts et expertes en pleurs », et toute une industrie a vu le jour pour capitaliser sur cette anxiété. Applications, appareils et programmes de formation coûteux promettent toutes et tous de traduire les pleurs des bébés en besoins spécifiques : « J’ai faim », « Change ma couche », « Je suis fatigué·e ».
Nos recherches, cependant, démontrent que ces affirmations sont sans fondement.
Pour tester cela scientifiquement, nous avons entrepris une étude à grande échelle. Nous avons placé des enregistreurs automatiques dans les chambres de 24 bébés, enregistrant en continu pendant deux jours à plusieurs reprises au cours de leurs quatre premiers mois. Nous avons ainsi constitué une énorme base de données de 3 600 heures d’enregistrement contenant près de 40 000 « syllabes » de pleurs (les unités composant les pleurs).
Les parents, dévoués, ont scrupuleusement noté l’action qui avait réussi à calmer le bébé, nous donnant une « cause » pour chaque pleur : la faim (calmée par un biberon), l’inconfort (calmé par un changement de couche) ou l’isolement (calmé par le fait d’être pris dans les bras). Nous avons ensuite utilisé des algorithmes d’apprentissage automatique, entraînant une intelligence artificielle (IA) sur les propriétés acoustiques de ces milliers de pleurs pour voir si elle pouvait apprendre à en identifier la cause. S’il existait un « pleur de faim » ou un « pleur d’inconfort » distinct, l’IA aurait dû être capable de le détecter.
Le résultat fut un échec retentissant. Le taux de réussite de l’IA n’était que de 36 % – à peine supérieur aux 33 % qu’elle obtiendrait par pur hasard. Pour nous assurer qu’il ne s’agissait pas seulement d’une limite technologique, nous avons répété l’expérience avec des auditeurs et des auditrices humaines. Nous avons demandé à des parents et non-parents, d’abord, de s’entraîner sur les pleurs d’un bébé spécifique, comme le ferait un parent dans la vie réelle, puis d’identifier la cause de nouveaux pleurs du même bébé. Ils n’ont pas fait mieux, avec un score de seulement 35 %. La signature acoustique d’un pleur de faim n’est pas plus distincte de celle d’un pleur d’inconfort.
Cela ne signifie pas que les parents ne peuvent pas comprendre les besoins de leur bébé. Cela signifie simplement que le pleur en lui-même n’est pas un dictionnaire. Le pleur est le signal d’alarme. C’est votre connaissance du contexte essentiel qui vous permet de le décoder. « La dernière tétée remonte à trois heures, il a probablement faim. » « Sa couche semblait pleine. » « Il est seul dans son berceau depuis un moment. » Vous êtes le détective ; le pleur est simplement l’alerte initiale, indifférenciée.
Si les pleurs ne signalent pas leur cause, quelle information transmettent-ils de manière fiable ? Nos recherches montrent qu’ils véhiculent deux informations importantes.
La première est une information statique : l’identité vocale du bébé. Tout comme chaque adulte a une voix distincte, chaque bébé a une signature de pleur unique, principalement déterminée par la fréquence fondamentale (la hauteur) de son pleur. C’est le produit de son anatomie individuelle – la taille de son larynx et de ses cordes vocales. C’est pourquoi vous pouvez reconnaître le pleur de votre bébé au milieu d’une nurserie. Cette signature est présente dès la naissance et change lentement au cours du temps avec la croissance du bébé.
Fait intéressant, si les pleurs des bébés ont une signature individuelle, ils n’ont pas de signature sexuelle. Les larynx des bébés filles et garçons sont de la même taille. Pourtant, comme nous l’avons montré dans une autre étude, les adultes attribuent systématiquement les pleurs aigus aux filles et les pleurs graves aux garçons, projetant leur connaissance des voix adultes sur les nourrissons.
La seconde information est dynamique : le niveau de détresse du bébé. C’est le message le plus important encodé dans un pleur, et il est transmis non pas tant par la hauteur (aiguë ou grave) ou le volume (faible ou fort), mais par une caractéristique que nous appelons la « rugosité acoustique ». Un pleur d’inconfort simple, comme avoir un peu froid après le bain, est relativement harmonieux et mélodique. Les cordes vocales vibrent de manière régulière et stable.
Mais un pleur de douleur réelle, comme nous l’avons enregistré lors de séances de vaccination, est radicalement différent. Il devient chaotique, rêche et grinçant.
Le stress de la douleur pousse le bébé à forcer plus d’air à travers ses cordes vocales, les faisant vibrer de manière désorganisée et non linéaire. Pensez à la différence entre une note pure jouée à la flûte et le son rauque et chaotique qu’elle produit quand on souffle trop fort. Cette rugosité, un ensemble de phénomènes acoustiques incluant le chaos et des sauts de fréquence soudains, est un signal universel et indubitable de détresse. Un « ouin-ouin » mélodieux signifie « Je suis un peu contrarié », tandis qu’un « RRRÂÂÂhh » rauque et dur signifie : « Il y a urgence ! »
Alors, qui est le plus à même de décoder ces signaux complexes ? Le mythe tenace de l’« instinct maternel » suggère que les mères sont biologiquement programmées pour cette tâche. Nos travaux démentent cette idée. Un instinct, comme le comportement figé d’une oie qui ramène un œuf égaré en le roulant jusqu’à son nid, est un programme inné et automatique. Comprendre les pleurs n’a rien à voir avec cela.
Dans l’une de nos études clés, nous avons testé la capacité des mères et des pères à identifier le pleur de leur propre bébé parmi une sélection d’autres. Nous n’avons trouvé absolument aucune différence de performance entre elles et eux. Le seul facteur déterminant était le temps passé avec le bébé. Les pères qui passaient autant de temps avec leurs nourrissons que les mères étaient tout aussi compétents. La capacité à décoder les pleurs n’est pas innée ; elle s’acquiert par l’exposition.
Nous l’avons confirmé dans des études avec des non-parents. Nous avons constaté que des adultes sans enfants pouvaient apprendre à reconnaître la voix d’un bébé spécifique après l’avoir entendue pendant moins de soixante secondes. Et celles et ceux qui avaient une expérience préalable de la garde d’enfants, comme le baby-sitting ou l’éducation de frères et sœurs plus jeunes, étaient significativement meilleurs pour identifier les pleurs de douleur d’un bébé que celles et ceux qui n’avaient aucune expérience.
Tout cela a un sens sur le plan évolutif. Les êtres humains sont une espèce à reproduction coopérative. Contrairement à de nombreux primates où la mère a une relation quasi exclusive avec son petit, les bébés humains ont historiquement été pris en charge par un réseau d’individus : pères, grands-parents, frères et sœurs et autres membres de la communauté. Dans certaines sociétés, comme les !Kung d’Afrique australe, un bébé peut avoir jusqu’à 14 soignants et soignantes différentes. Un « instinct » câblé et exclusivement maternel serait un profond désavantage pour une espèce qui repose sur le travail d’équipe.
Nos recherches en neurosciences révèlent comment fonctionne ce processus d’apprentissage. Lorsque nous entendons un bébé pleurer, tout un réseau de régions cérébrales, appelé le « connectome cérébral des pleurs de bébé », entre en action. Grâce à l’imagerie à résonance magnétique fonctionnelle (IRMf), nous avons observé que les pleurs activent dans le cerveau les centres auditifs, le réseau de l’empathie (nous permettant de ressentir l’émotion de l’autre), le réseau miroir (nous aidant à nous mettre à la place de l’autre) ainsi que des zones impliquées dans la régulation des émotions et la prise de décision.
De manière intéressante, cette réponse n’est pas la même pour tout le monde. En comparant l’activité cérébrale des parents et des non-parents, nous avons constaté que si le cerveau de chacun réagit, le « cerveau parental » est différent. L’expérience avec un bébé renforce et spécialise ces réseaux neuronaux. Par exemple, le cerveau des parents montre une plus grande activation dans les régions associées à la planification et à l’exécution d’une réponse, tandis que les non-parents montrent une réaction émotionnelle et empathique plus brute, non tempérée. Les parents passent de la simple sensation de détresse à la résolution active de problèmes.
De plus, nous avons constaté que les niveaux individuels d’empathie – et non le genre – étaient le prédicteur le plus puissant de l’intensité d’activation du réseau de « vigilance parentale » du cerveau. S’occuper d’un enfant est une compétence qui se perfectionne avec la pratique, et elle remodèle physiquement le cerveau de toute personne dévouée, qu’elle ait ou non un lien de parenté avec le bébé.
Comprendre la science des pleurs n’est pas un simple exercice de recherche fondamentale ; cela a de profondes implications dans le monde réel. Les pleurs incessants, en particulier ceux liés aux coliques du nourrisson (qui touchent jusqu’à un quart des bébés), sont une source majeure de stress parental, de privation de sommeil et d’épuisement. Cet épuisement peut mener à un sentiment d’échec et, dans les pires cas, être un déclencheur du syndrome du bébé secoué, une forme de maltraitance tragique et évitable.
Le fait de savoir que vous n’êtes pas censé·e « comprendre de manière innée » ce que signifie un pleur peut être incroyablement libérateur. Cela lève le fardeau de la culpabilité et vous permet de vous concentrer sur la tâche pratique : vérifier le contexte, évaluer le niveau de détresse (le cri est-il rugueux ou mélodique ?) et essayer des solutions.
Plus important encore, la science met en lumière la plus grande force de notre espèce : la coopération. Les pleurs insupportables deviennent supportables lorsque le bébé peut être confié à un ou une partenaire, un grand-parent ou une amie pour une pause bien méritée.
Alors, la prochaine fois que vous entendrez le pleur perçant de votre bébé dans la nuit, souvenez-vous de ce qu’est vraiment cette vocalisation : non pas un test de vos capacités innées ou un jugement sur vos compétences parentales, mais une alarme simple et puissante, modulée par le degré d’inconfort ou de détresse ressenti par votre enfant.
C’est un signal façonné par l’évolution, interprétable non par un mystérieux instinct, mais par un cerveau humain attentionné, attentif et expérimenté. Et si vous vous sentez dépassé·e, la réponse la plus scientifiquement fondée et la plus appropriée sur le plan évolutif est de demander de l’aide.
Pour en savoir plus sur les pleurs des bébés, voir le site web : Comprendrebebe.com.
Nicolas Mathevon est l’auteur de Comprendre son bébé. Le langage secret des pleurs, éditions Tana, 2025.
Le projet « Les pleurs du bébé : Une approche intégrée – BABYCRY » est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Nicolas Mathevon a reçu des financements de l'ANR, IUF, Fondation des Mutuelles AXA.
26.08.2025 à 12:36
Catherine Loveday, Professor, Neuropsychology, University of Westminster
Et si la musique vous laissait de marbre ? Alors qu’elle fait vibrer la plupart d’entre nous, 5 à 10 % de la population reste totalement indifférente aux mélodies. Ce trouble, appelé « anhédonie musicale », intrigue les chercheurs, qui en dévoilent aujourd’hui l’origine : un défaut de communication entre le cerveau auditif et le système de récompense.
Lorsque je demande à une salle remplie d’étudiants comment ils se sentiraient s’ils ne pouvaient plus jamais écouter de musique, la plupart sont horrifiés. Un bon nombre était encore en train d’écouter de la musique juste avant le début du cours. Mais il y en a toujours un ou deux qui avouent timidement que cela ne changerait rien à leur vie si la musique n’existait pas.
Les psychologues appellent cela « l’anhédonie musicale », c’est-à-dire l’absence de plaisir à écouter de la musique. Et un nouvel article publié par des neuroscientifiques espagnols et canadiens suggère qu’elle serait causée par un problème de communication entre différentes zones du cerveau.
Pour beaucoup d’entre nous, ne rien ressentirquand on écoute de la musique semble incompréhensible. Pourtant, pour 5 à 10 % de la population, c’est la norme.
Dans le cadre de mes recherches et de ma pratique auprès de personnes souffrant de pertes de mémoire, je leur demande souvent de choisir leurs chansons préférées dans le but de raviver chez elles des souvenirs marquants.
J’ai toujours été fascinée par le fait que certaines personnes me regardent d’un air perplexe et me disent : « La musique ne m’a jamais vraiment intéressé•e. » Cela contraste tellement avec la majorité des gens qui adorent parler de leur premier disque ou de la chanson qui a été jouée à leur mariage.
Des études récentes montrent des variations considérables dans l’intensité des émotions ressenties quand on écoute de la musique. Environ 25 % de la population est hyperhédonique, c’est-à-dire qu’elle éprouve un besoin presque obsessionnel de musique.
Les recherches dans ce domaine utilisent généralement le Barcelona Music Reward Questionnaire (BMRQ) (questionnaire de récompense musicale de Barcelone), qui interroge les personnes sur l’importance de la musique dans leur vie quotidienne : À quelle fréquence en écoutent-elles ? Leur arrive-t-il de fredonner des airs ? Y a-t-il des chansons qui leur donnent des frissons ?
Si le score obtenu est faible, alors on parle d’anhédonie musicale. Pour confirmer ce diagnostic, des chercheurs mesurent, en laboratoire, le rythme cardiaque, la température ou la sudation des personnes sondées, pendant qu’elles écoutent de la musique. Chez la plupart d’entre nous, ces marqueurs physiologiques varient en fonction de la musique écoutée, selon qu’elle nous touche beaucoup ou peu. Mais chez les personnes souffrant d’anhédonie musicale, l’effet physiologique est nul.
Une théorie a consisté à dire que le fait de moins apprécier la musique pourrait refléter une anhédonie plus générale, c’est-à-dire une absence de plaisir pour quoi que ce soit. Ces pathologies sont souvent liées à des perturbations au niveau des zones du système de récompense, telles que le noyau accumbens, le noyau caudé et le système limbique.
Il s’agit d’une caractéristique courante de la dépression qui, comme d’autres troubles de l’humeur, peut être corrélée à une absence de réponse à la musique. Cependant, cela n’explique pas l’anhédonie musicale « spécifique », qui touche des personnes qui prennent du plaisir avec d’autres récompenses, comme la nourriture, les relations sociales ou le cinéma par exemple, mais restent indifférentes à la musique.
Une autre explication qui a été avancée consiste à dire que les personnes qui s’intéressent peu à la musique ne la comprennent tout simplement pas, peut-être en raison de difficultés à percevoir les mélodies et les harmonies.
Pour vérifier cette hypothèse, nous pouvons nous intéresser aux personnes atteintes d’amusie, un trouble de la perception musicale qui affecte la capacité à reconnaître des mélodies familières ou à détecter des notes fausses. Ce trouble survient lorsque l’activité est réduite dans des régions clés du cortex fronto-temporal du cerveau, qui gère le traitement complexe de la hauteur des notes et de la mélodie. Or, on connaît au moins un cas d’une personne atteinte d’amusie qui n’en aime pas moins la musique.
Quoi qu’il en soit, d’autres recherches montrent que les personnes souffrant d’anhédonie musicale ont souvent une perception musicale normale, ils reconnaissent les chansons ou distinguent sans problème les accords majeurs des accords mineurs.
Alors, que se passe-t-il ? Un article recense toutes les recherches menées à ce jour dans ce domaine. La récompense musicale semble être traitée par la connectivité existant entre les zones corticales auditives, situées au niveau du gyrus temporal supérieur, et les zones du système de récompense. Il arrive que ces zones soient intactes chez des sujets souffrant d’anhédonie musicale. C’est donc la communication entre les zones qui est gravement perturbée : les parties du cerveau chargées du traitement auditif et le centre de la récompense ne communiquent pas.
Les personnes qui réagissent normalement à la musique présentent une activité importante au niveau de cette connexion dans le cerveau, qui est plus élevée pour une musique agréable que pour des sons neutres. Une étude réalisée en 2018 a montré qu’il est possible d’augmenter le plaisir procuré par la musique en stimulant artificiellement ces voies de communication à l’aide d’impulsions magnétiques.
Cette nouvelle analyse pourrait permettre aux scientifiques de mieux comprendre les troubles cliniques dans lesquels les récompenses quotidiennes semblent réduites ou amplifiées, ce qui est le cas par exemple lors de troubles alimentaires, d’addictions au sexe ou aux jeux.
Ces résultats remettent également en question l’idée répandue selon laquelle tout le monde aime la musique. La plupart des gens l’aiment, mais pas toutes les personnes, et cette variation s’explique par des différences dans le câblage du cerveau. Parfois, cela résulte des suites d’une lésion cérébrale, mais le plus souvent, les individus naissent ainsi, et une étude réalisée en mars 2025 a mis en évidence l’existence d’un lien génétique.
Catherine Loveday ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.08.2025 à 19:21
Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université
Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que le principe de l’autotest a été imaginé, dans les années 1960, par une jeune designer pour rendre le test accessible à toutes les femmes en le pratiquant à domicile ? Découvrez l’histoire de Margaret Crane, et les obstacles qu’elle a dû surmonter.
Les tests de diagnostic rapide ont sauvé de nombreuses vies à travers le monde grâce à leurs simplicité et rapidité, et à leur prix abordable. Les plus répandus sont les tests antigéniques, dont nous avons tous pu bénéficier pendant la pandémie de Covid-19. D’autres tests antigéniques existent, comme ceux détectant la dengue ou le chikungunya, deux infections virales tropicales, ou encore le paludisme, la maladie la plus mortelle au monde chez les enfants de moins de 5 ans.
Ces types de tests sont reconnus d’utilité publique par l’Organisation mondiale de la santé (OMS). Le test antigénique de la grippe est par exemple utilisé en routine. Bien que l’intérêt pour ces tests ait émergé durant la Covid-19, nous étions déjà familiarisés avec les tests antigéniques sans nous en rendre compte ! Les tests de grossesse, ô combien impliqués dans nos histoires personnelles, sont les premiers tests de diagnostic rapide créés. On doit cette découverte à Margaret Crane, dont l’invention a contribué à l’amélioration considérable du domaine diagnostique général.
Détecter une grossesse a toujours revêtu une importance pour la santé féminine, la gestion familiale et les questions sociales. Un papyrus médical égyptien datant d’environ 1350 avant notre ère, appelé le papyrus Carlsberg, détaille une méthode simple. Des grains d’orge et de blé, enfermés chacun dans un petit sac ou un récipient, étaient humidifiés quotidiennement avec l’urine de la femme à tester. L’absence de germination diagnostiquait l’absence de grossesse. La germination de l’orge, elle, prévoyait la naissance d’un garçon, quand celle du blé présageait celle d’une fille. En 1963, une équipe de recherche a décidé d’essayer cette technique de l’Égypte antique, à première vue rudimentaire. De manière étonnante, même si la prédiction du sexe était décevante, la méthode égyptienne avait une sensibilité très élevée : 70 % des grossesses ont été confirmées ! Cela est probablement dû au fait que les hormones dans les urines de la femme enceinte miment l’action des phytohormones, les hormones végétales.
En 1927, le zoologue anglais Lancelot Hogben obtient une chaire de recherche pour étudier les hormones animales à l’Université du Cap en Afrique du Sud. Il y découvre le « crapaud à griffe » du Cap (Xenopus laevis) dont les femelles ont la capacité de pondre toute l’année. Le professeur Hogben contribue à la création d’un test de grossesse qui porte son nom. Son principe ? Injecter de l’urine de femme enceinte dans un crapaud femelle. En raison des hormones contenues dans l’urine, cette injection déclenchait spontanément la ponte. Le test présentait une sensibilité supérieure à 95 % !
Bien que ce protocole soit devenu un test de routine dans les années 1940, la majorité des femmes n’avait toujours pas d’accès facile aux tests de grossesse. D’autres tests similaires existaient, utilisant des souris femelles ou des lapines, consistant à en examiner les ovaires pendant 48 à 72 heures après l’injection d’urine, pour voir si celle-ci avait induit une ovulation. Ces tests présentaient des contraintes de temps, de coûts et l’utilisation d’animaux, ce qui a motivé la recherche de méthodes plus rapides et moins invasives.
Au début des années 1930, la docteure américaine Georgeanna Jones découvrit que le placenta produisait une hormone, appelée la gonadotrophine chorionique humaine, dont l’abréviation est l’hCG. Cette découverte en a fait un marqueur précoce de grossesse, et pour la tester, il ne restait plus qu’à la détecter !
En 1960, le biochimiste suédois Leif Wide immunisa des animaux contre l’hCG humaine et en purifia les anticorps. On avait donc à disposition des molécules, les anticorps, capables de détecter l’hCG, encore fallait-il que la réaction antigène-anticorps (dans ce cas, l’hCG est l’antigène reconnu par les anticorps) puisse être visible pour confirmer une grossesse à partir d’urines.
Le professeur Leif Wide développa un test de grossesse, selon une technologie appelée l’inhibition de l’hémagglutination. Elle se base sur l’utilisation de globules rouges, dont la couleur permet une analyse à l’œil nu. Si les anticorps se lient aux globules rouges, ils ont tendance à s’agglutiner, et cela forme une « tache rouge » au fond du test. En cas de grossesse, l’échantillon d’urine contient de l’hCG : les anticorps réagissent avec l’hCG et ne peuvent pas lier les globules rouges. L’absence de tâche rouge indique une grossesse ! Ce test était révolutionnaire, car, contrairement aux autres, et en plus d’être beaucoup moins coûteux, le résultat n’était obtenu qu’en deux heures.
En 1962, l’entreprise américaine Organon Pharmaceuticals a commercialisé ce test de grossesse, à destination des laboratoires d’analyses médicales. En 1967, Margaret Crane est une jeune designer de 26 ans sans aucun bagage scientifique, employée par cette compagnie dans le New Jersey, pour créer les emballages de leur branche cosmétique. Un jour qu’elle visite le laboratoire de l’entreprise, elle assiste à l’exécution d’un des tests. Un laborantin lui explique la longue procédure, consistant au prélèvement d’urine par le médecin et à l’envoi à un laboratoire d’analyses. Il fallait attendre environ deux semaines pour une femme avant d’avoir un résultat.
Malgré la complexité théorique de la technique, Margaret Crane réalise alors à la fois la simplicité de lecture du test et du protocole : il suffisait d’avoir des tubes, un flacon d’anticorps et un indicateur de couleur (les globules rouges) ! De retour chez elle à New York, elle lance des expériences en s’inspirant d’une boîte de trombones sur son bureau, et conçoit un boîtier ergonomique – avec tout le matériel et un mode d’emploi simplifié –, destiné à l’usage direct à la maison par les utilisatrices. Margaret Crane montre son prototype à Organon Pharmaceuticals, qui refuse l’idée, jugeant qu’une femme ne serait pas capable de lire seule le résultat, aussi simple soit-il…
Peu de temps après la proposition de Margaret Crane, un homme employé par Organon Pharmaceuticals s’en inspire et lance la même idée, et lui est écouté. Elle décide alors de tirer parti de la situation, en assistant aux réunions où elle était la seule femme. Plusieurs tests, prototypés par des designers masculins, y sont présentés : en forme d’œuf de poule, soit roses, soit décorés de strass… Sans aucune hésitation, c’est celui de Margaret Crane qui est choisi pour sa praticité, car elle l’avait pensé pour que son utilisation soit la plus facile possible. Margaret Crane dépose son brevet en 1969, mais Organon Pharmaceuticals hésite à le commercialiser tout de suite, de peur que les consommatrices soient dissuadées par des médecins conservateurs ou par leur communauté religieuse.
Il est mis pour la première fois sur le marché en 1971 au Canada, où l’avortement venait d’être légalisé. Bien que créditée sur le brevet américain, Margaret Crane ne perçut aucune rémunération, car Organon Pharmaceuticals céda les droits à d’autres entreprises.
L’histoire de Margaret Crane illustre un parcours fascinant, où l’observation empirique rencontre le design industriel. Sa contribution fut finalement reconnue en 2014 par le Musée national d’histoire américaine.
Son concept fondateur, celui d’un test simple, intuitif et autonome pour l’utilisateur, ouvrit la voie révolutionnaire aux tests de grossesse sous la forme que nous connaissons aujourd’hui et aux tests antigéniques, essentiels notamment lors de crises sanitaires.
Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.08.2025 à 16:23
Thibault Leroy, Biologiste, chercheur en génétique des populations, Inrae
Jérémy Clotault, Enseignant-chercheur en génétique, Université d’Angers
En Europe, la rose a connu son âge d’or au XIXe siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000. Grâce à l’étude des caractéristiques de ces variétés et aux outils modernes de la génomique, nous venons de retracer l’histoire de cette évolution, marquée par d’importants croisements entre rosiers asiatiques et rosiers européens anciens. De ce mariage est née une diversité qui continue de façonner nos jardins contemporains.
Depuis l’Antiquité, les roses sont cultivées, aussi bien en Chine que dans la région méditerranéenne, pour leurs vertus médicinales, notamment les propriétés anti-inflammatoires et antimicrobiennes des huiles essentielles ou comme sources de vitamine C dans les cynorrhodons (faux-fruits des rosiers), et pour leur forte charge symbolique, notamment religieuse. Pourtant, pendant des siècles, le nombre de variétés est resté très limité, autour d’une centaine. Le XIXe siècle marque un tournant majeur pour l’horticulture européenne avec une effervescence portée par un nouvel engouement pour l’esthétique des roses. Les collectionneurs – dont la figure la plus emblématique fut probablement l’impératrice Joséphine de Beauharnais– et les créateurs de nouvelles variétés français ont eu un rôle déterminant dans cet essor, donnant naissance à une véritable « rosomanie » et contribuant à une explosion du nombre de variétés, passant d’une centaine à près de 8000 variétés ! À titre de comparaison, depuis cette période, le nombre de variétés a certes continué de progresser, s’établissant à environ 30 000 variétés aujourd’hui, mais à un rythme de croissance moins soutenu.
Au-delà de l’augmentation du nombre de variétés, le XIXe siècle a été marqué par une grande diversification des caractéristiques des rosiers. Le nombre de pétales, notamment, est devenu un critère d’intérêt majeur. Les rosiers botaniques, des formes cultivées anciennes issues directement de la nature, ne possédaient en général que cinq pétales. Au fil du XIXe siècle, la sélection horticole a permis d’obtenir des variétés aux fleurs bien plus sophistiquées, certaines présentant plusieurs dizaines, voire des centaines de pétales. Cependant, cette évolution n’a pas suivi une progression linéaire : la première moitié du siècle a vu une nette augmentation du nombre de pétales, marquée par une mode des rosiers cent-feuilles, tandis que la seconde moitié a été plutôt caractérisée par une stagnation, voire un retour à des formes plus simples. Certaines variétés très travaillées sur le plan esthétique ont ainsi été sélectionnées pour paradoxalement n’avoir que cinq pétales.
La plus grande différence entre les rosiers du début et de la fin du XIXe réside dans un caractère fondamental : la remontée de floraison. Jusqu’au milieu du XIXe siècle, les rosiers étaient majoritairement non remontants, c’est-à-dire qu’ils ne fleurissaient qu’une seule fois par an, au printemps. La capacité des rosiers à refleurir, en générant de nouvelles fleurs au cours de l’été, voire même jusqu’à l’automne, n’est pas le fruit du hasard ! Cette caractéristique a constitué un objectif important des sélectionneurs de l’époque. Cette histoire, très associée aux croisements génétiques effectués, notamment avec des rosiers chinois, a laissé une empreinte durable, aussi bien dans nos jardins contemporains que dans les génomes mêmes des rosiers.
Bien qu’ils n’en étaient pas conscients, les sélectionneurs ont aussi pu contribuer à l’introduction de caractères défavorables. Ainsi, en étudiant les niveaux de symptômes de la maladie des taches noires sur des centaines de variétés du XIXe, nous avons mis en évidence une augmentation de la sensibilité des variétés. Cette maladie est aujourd’hui considérée comme une des premières causes de traitements phytosanitaires sur les rosiers, ce qui n’est pas sans poser des questions sanitaires sur l’exposition aux pesticides des fleuristes et autres professionnels du secteur horticole. Notre étude a néanmoins trouvé des régions génomiques associées à une résistance à cette maladie, offrant l’espoir d’une sélection vers des variétés nouvelles plus résistantes.
Notre étude n’a pas uniquement porté sur la prédisposition aux maladies mais également à l’une des caractéristiques les plus importantes des roses : leur odeur. Le parfum des roses est expliqué par un cocktail complexe de molécules odorantes. Deux molécules sont néanmoins très importantes dans ce qu’on appelle l’odeur de rose ancienne, le géraniol et le 2-phényléthanol. Nous avons étudié le parfum de centaines de variétés et observé une très forte variabilité de celui-ci, autant en teneur qu’en composition. Nos résultats ne soutiennent toutefois pas, ou alors extrêmement marginalement, une réduction du parfum des roses au cours du XIXe siècle. La perte de parfum est vraisemblablement arrivée ultérieurement, au cours du XXe siècle, une période qui voit l’apparition d’une activité de création variétale spécifique pour les roses à fleurs coupées et qui aurait négligé le parfum des roses au profit de la durée de tenue en vase, permettant de délocaliser la production dans des pays aux coûts de production réduits.
Pour mieux comprendre l’origine et la diversité de ces rosiers du XIXe, il faut désormais plonger dans l’univers de l’infiniment petit : celui de leurs génomes. Dans notre nouvelle étude, nous avons entrepris de caractériser en détail la génétique de plus de 200 variétés, en nous appuyant sur des dizaines de milliers de marqueurs, c’est-à-dire d’une information ciblée sur des zones particulières des génomes, connues comme étant variables selon les variétés, et ce, répartis sur l’ensemble de leurs chromosomes. Pour une trentaine de variétés, nous sommes allés encore plus loin, en décryptant l’intégralité de leur génome, fournissant non plus des dizaines de milliers, mais des dizaines de millions de marqueurs, ouvrant ainsi une fenêtre encore plus précise sur l’histoire génétique des rosiers. A noter que le mode de conservation nous a facilité la tâche pour étudier l’ADN de ces rosiers historiques directement à partir des plantes actuelles conservées en roseraie. En effet, grâce au greffage, les variétés de rosiers sont potentiellement immortelles !
Grâce à cette analyse, nous avons d’abord pu confirmer les résultats d’études antérieures qui, bien que fondées sur un nombre limité de marqueurs génétiques, avaient déjà mis en évidence que la diversification des rosiers du XIXe siècle résultait de croisements successifs entre rosiers anciens européens et rosiers asiatiques. La haute résolution offerte par la génomique nous a toutefois permis d’aller plus loin : nous avons montré que cette diversité s’est construite en réalité sur un nombre très réduit de générations de croisements, impliquant de manière récurrente des variétés phares de l’époque, utilisées comme parents dans de nombreux croisements. Il est remarquable de noter que cela s’est produit avec une bonne dose de hasard (via la pollinisation) puisque la fécondation artificielle (choix des deux parents du croisement) n’est utilisée sur le rosier qu’à partir du milieu du XIXᵉ siècle.
Bien que reposant sur un nombre limité de générations de croisements, contribuant à un métissage entre rosiers asiatiques et européens, notre étude a également permis de montrer que les rosiers possèdent une importante diversité génétique. Toutefois, la sélection menée au cours du XIXe siècle a contribué à une légère érosion de cette diversité, en particulier chez les variétés issues de la fin du siècle. Or, le maintien d’une large diversité génétique est essentiel pour la résilience et l’adaptation des espèces face aux changements environnementaux. Sa préservation au long cours représente donc un enjeu majeur. Tant que les anciennes variétés sont conservées, cette perte reste réversible. Il est donc crucial d’agir pour éviter leur disparition définitive en préservant les collections de roses anciennes et botaniques.
À l’échelle du génome complet, la sélection tend à réduire la diversité génétique. Mais à une échelle plus fine, ses effets peuvent être encore plus marqués, entraînant une diminution locale beaucoup plus prononcée de la diversité. Notre étude a ainsi révélé qu’une région du chromosome 3, contenant différentes formes d’un gène clé impliqué dans la remontée de la floraison, a fait l’objet d’une sélection particulièrement intense au XIXe siècle. Ce résultat, bien que prévisible compte tenu de l’importance de ce caractère, a été confirmé de manière claire à la lumière des données génomiques. De manière plus inattendue, nous avons également identifié d’autres régions du génome présentant des signatures similaires de sélection, notamment sur les chromosomes 1, 5 et 7. À ce stade, les gènes concernés, et les éventuels caractères morphologiques associés restent encore à identifier. Malgré les avancées de la génomique, le mariage des roses d’Occident et d’Orient au XIXe siècle garde encore nombre de ses secrets de famille !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.08.2025 à 16:33
Ella Kellner, Ph.D. Student in Biological Sciences, University of North Carolina – Charlotte
Elles peuvent inquiéter ou être balayées d’un revers de la main : les toiles d’araignées sont en réalité des merveilles d’ingénierie naturelle. Leur architecture, aussi variée qu’ingénieuse, répond à des fonctions précises : capturer des proies, protéger des œufs, amortir une chute ou fournir des repères sensoriels. Observer ces fils de soie, c’est plonger dans 400 millions d’années d’évolution et de créativité biologiques.
Vous êtes-vous déjà retrouvé nez à nez avec une toile d’araignée lors d’une promenade dans la nature ? Ou avez-vous déjà balayé des toiles d’araignée dans votre garage ?
Si oui, alors vous connaissez déjà les toiles orbitulaires, qui sont régulières, géométriques, et qui sont emblématiques d’Halloween ; et les toiles en réseau désordonné, qui sont celles que l’on trouve dans nos garages et dans nos caves. Ce ne sont là que deux exemples d’architectures de toiles d’araignées. Une toile est toujours spécialement adaptée à l’environnement de l’araignée et à la fonction qu’elle doit remplir.
Si de nombreuses araignées utilisent leurs toiles pour attraper des proies, elles ont également développé des façons inhabituelles d’utiliser leur soie, par exemple pour envelopper leurs œufs ou pour se créer des filins de sécurité qui les rattrapent lorsqu’elles tombent.
En tant que scientifique spécialiste des matériaux qui étudie les araignées et leur soie, je m’intéresse à la relation entre l’architecture des toiles d’araignées et la résistance des fils qu’elles utilisent. Comment la conception d’une toile et les propriétés de la soie utilisée affectent-elles la capacité d’une araignée à capturer son prochain repas ?
La soie d’araignée a une longue histoire évolutive. Les chercheurs pensent qu’elle est apparue il y a environ 400 millions d’années.
Ces araignées ancestrales utilisaient la soie pour tapisser leurs repaires, pour protéger leurs œufs vulnérables et pour créer des chemins sensoriels et des repères afin de se déplacer dans leur environnement.
Pour comprendre à quoi pouvaient ressembler les toiles d’araignées anciennes, les scientifiques s’intéressent à l’araignée lampadaire.
Cette araignée vit dans les affleurements rocheux des Appalaches et des Rocheuses, aux États-Unis. Elle est une parente vivante de certaines des plus anciennes araignées à avoir jamais tissé des toiles, et elle n’a pratiquement pas changé depuis.
Bien nommée en raison de la forme de sa toile, l’araignée lampadaire tisse une toile dont la base étroite s’élargit vers l’extérieur. Ces toiles comblent les fissures entre les rochers, où l’araignée peut se camoufler contre la surface rugueuse. Il est difficile pour une proie potentielle de traverser ce paysage accidenté sans se retrouver piégée.
Aujourd’hui, toutes les espèces d’araignées produisent de la soie. Chaque espèce qui tisse des toiles crée sa propre architecture de toile, parfaitement adaptée au type de proie qu’elle mange et à l’environnement dans lequel elle vit.
Prenons l’exemple de la toile orbiculaire. Il s’agit d’une toile réalisée à partir d’un centre de manière circulaire, avec un motif régulier de rayons et de cercles concentriques. Elle sert principalement à capturer des proies volantes ou sauteuses, telles que les mouches et les sauterelles. Les toiles orbiculaires se trouvent dans les zones ouvertes, comme à la lisière des forêts, dans les herbes hautes ou entre vos plants de tomates.
Comparez-les à des toiles en réseau désordonné, une structure que l’on voit le plus souvent près des plinthes dans les maisons, dans les caves ou greniers. Bien que l’expression « toile en réseau désordonné » soit couramment utilisée pour désigner toute toile d’araignée poussiéreuse et abandonnée, il s’agit en fait d’une forme de toile spécifique généralement conçue par les araignées de la famille des Theridiidae.
Cette toile a une architecture en 3D complexe, donnant un aspect fouillis. Les fils sont collants et tendus dans toutes les directions, notamment vers le bas, où ils sont maintenus fixés au sol sous une forte tension. Ces fils agissent comme un piège collant à ressort pour capturer des proies rampantes, telles que les fourmis et les coléoptères. Lorsqu’un insecte entre en contact avec la colle à la base du fil, la soie se détache du sol, parfois avec une force suffisante pour soulever le repas dans les airs.
Imaginez que vous êtes un naïf scarabée, qui rampe entre les brins d’herbe, et que vous vous retrouvez sur un sol recouvert d’une toile de soie tissée de manière très dense. Alors que vous commencez à avancer sur ce paillasson d’un genre particulier, vous avez juste le temps d’apercevoir huit yeux braqués sur vous depuis un entonnoir de soie, avant d’être happé et avalé tout cru.
Ce type d’araignée à toile en entonnoir bâtit des constructions horizontales au sol, qu’elle utilise comme une extension de son système sensoriel. L’araignée attend patiemment dans son abri en forme d’entonnoir. Les proies qui entrent en contact avec la toile créent des vibrations qui alertent l’araignée : un mets délicieux est en train de marcher sur le paillasson, et il est temps de lui sauter dessus.
Les araignées sauteuses sont des tisserandes à part, puisqu’elles ne tissent pas de toiles. Elles sont connues pour leurs couleurs variées, vives ou iridescentes, et leurs danses nuptiales élaborées, qui en font l’une des arachnides les plus attachantes. Leur aspect mignon les a rendues populaires, notamment grâce à Lucas the Spider, une adorable araignée sauteuse animée par Joshua Slice. Dotées de deux grands yeux frontaux qui leur permettent de percevoir les distances, ces araignées sont de fantastiques chasseuses, capables de sauter dans toutes les directions pour se déplacer et de bondir sur leur prise.
Mais que se passe-t-il lorsqu’elles se trompent dans leur calcul ou, pis, lorsqu’elles doivent échapper à un prédateur ? Les araignées sauteuses attachent un fil à leur point de départ avant de s’élancer dans les airs, comme une sorte de corde de rappel. Si le saut rate, elles peuvent remonter le long du filin et réessayer. Non seulement ce filin de sécurité en soie leur permet de ressauter, mais il les aide également dans leur saut. Le fil leur permet de contrôler la direction et la vitesse de leur saut en plein vol. En modifiant la vitesse à laquelle elles libèrent la soie, elles peuvent atterrir exactement où elles le souhaitent.
Toutes les toiles, de la toile orbiculaire à la toile d’araignée d’apparence désordonnée, sont construites selon une série d’étapes fondamentales distinctes.
Les araignées à toile orbiculaire commencent généralement par construire une prototoile. Les scientifiques pensent que cette construction initiale est une phase exploratoire, pendant laquelle l’araignée évalue l’espace disponible et trouve des points d’ancrage pour sa soie. Une fois que l’araignée est prête à construire sa toile principale, elle utilise la prototoile comme échafaudage pour créer le cadre, les rayons et la spirale qui l’aideront à absorber l’énergie des proies qui se prennent dedans et à les capturer. Ces structures sont essentielles pour garantir que leur prochain repas ne déchire pas la toile, en particulier les insectes tels que les libellules, qui ont une vitesse de croisière moyenne de 16 km/h. Une fois sa toile terminée, l’araignée orbiculaire retourne au centre de la toile pour attendre son prochain repas.
Un seul type de matériau ne permettrait pas de fabriquer toutes ces toiles d’araignée. En fait, les araignées peuvent créer jusqu’à sept types de fibre soie différente, et les araignées tisserandes les fabriquent toutes. Chaque type de fibre a des propriétés chimiques, physiques et mécaniques adaptées à la fonction recherchée, servant à un usage spécifique dans la vie de l’araignée (toile, cocon, câble d’ancrage, fil de détection, filet de capture, etc.). C’est dans les glandes séricigènes que sont produites les fibres de soie, et chaque type de glandes produit un fil de soie particulier avec une fonction spécifique.
Les araignées orbiculaires entament le tissage de leurs toiles par la fabrication d’un fil porteur très résistant. Quant à la spirale pour piéger les insectes, construite en partant du centre vers l’extérieur, elle est constituée d’une soie extrêmement élastique. Lorsqu’une proie se prend dans la spirale, les fils de soie se déforment sous l’impact. Ils s’étirent pour absorber l’énergie et empêcher la proie de déchirer la toile.
La « colle d’araignée » est un type de soie modifiée, dotée de propriétés adhésives. C’est la seule partie de la toile d’araignée qui soit réellement collante. Cette soie collante, située sur la spirale de capture, permet de s’assurer que la proie reste collée à la toile suffisamment longtemps pour que l’araignée puisse lui administrer sa morsure venimeuse.
Les araignées et leurs toiles sont incroyablement variées. Chaque espèce d’araignée s’est adaptée à son environnement naturel pour capturer certains types de proies. La prochaine fois que vous verrez une toile d’araignée, prenez le temps de l’observer plutôt que de la balayer ou d’écraser l’araignée qui s’y trouve.
Remarquez les différences dans la structure de la toile et voyez si vous pouvez repérer les gouttelettes de colle. Observez la façon dont l’araignée est assise dans sa toile. Est-elle en train de manger ou y a-t-il des restes d’insectes qu’elle a peut-être empêchés de s’introduire dans votre maison ?
L’observation de ces architectes arachnides peut nous en apprendre beaucoup sur le design, l’architecture et l’innovation.
Ella Kellner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 16:46
Ziteng Wang, Associate Lecturer, Curtin Institute of Radio Astronomy (CIRA), Curtin University
Dans le cosmos, certains objets émettent des pulsations plutôt qu’une lumière continue. Cette année, les astronomes ont découvert ASKAP J1832, un objet dans la Voie lactée qui émet à la fois des rayons X et des ondes radio, et qui ne ressemble à rien de connu.
Dans une étude publiée dans Nature au mois de mai, nous rapportons la découverte d’un nouveau phénomène transitoire à longue période – et, pour la première fois, qui émet également régulièrement des sursauts de rayons X.
Les transitoires à longue période sont une classe d’objets cosmiques récemment identifiés qui émettent d’intenses flashs d’ondes radio toutes les quelques minutes, voire à plusieurs heures d’intervalle, ce qui est beaucoup plus long que les émissions pulsées très rapides que nous détectons généralement chez les pulsars, qui sont issus de l’explosion d’une étoile massive en fin de vie.
La nature de ces objets transitoires à longue période et la manière dont ils génèrent leurs signaux inhabituels restent un mystère.
Notre découverte ouvre une nouvelle fenêtre sur l’étude de ces sources énigmatiques. Mais elle renforce également le mystère : l’objet que nous avons trouvé ne ressemble à aucun type d’étoile ou de système connu dans notre galaxie ni au-delà.
Le ciel nocturne recèle de nombreux éléments invisibles à l’œil nu, mais détectables à d’autres longueurs d’onde, comme les ondes radio.
Notre équipe de recherche scrute régulièrement le ciel radio à l’aide du SKA Pathfinder australien (ASKAP), exploité par le CSIRO dans la région de Wajarri Yamaji, dans l’ouest de l’Australie. Notre objectif est de trouver des objets cosmiques qui apparaissent et disparaissent – que l’on appelle « transients » en anglais, « objets transitoires », en français.
Les objets transitoires sont souvent liés à certains des événements les plus puissants et les plus spectaculaires de l’Univers, tels que la mort explosive d’étoiles.
Fin 2023, nous avons repéré une source extrêmement brillante, baptisée ASKAP J1832-0911 (d’après sa position dans le ciel), dans le plan de notre galaxie. Cet objet est situé à environ 15 000 années-lumière… c’est loin, mais toujours dans la Voie lactée.
Après la découverte initiale, nous avons commencé des observations de suivi à l’aide de télescopes situés dans le monde entier dans l’espoir de capter d’autres impulsions. Grâce à une surveillance continue, nous avons constaté que les impulsions radio provenant d’ASKAP J1832 arrivaient régulièrement, toutes les quarante-quatre minutes. Cela a confirmé qu’il s’agissait d’un nouveau membre du groupe peu fourni des transitoires à longue période.
Nous avons également fouillé les anciennes données provenant de la même partie du ciel, mais nous n’avons trouvé aucune trace de l’objet avant sa découverte en 2023. Ceci suggère qu’un événement spectaculaire s’est produit peu avant notre première détection, un événement suffisamment puissant pour « allumer » soudainement notre objet transitoire atypique.
Puis, en février 2024, ASKAP J1832 est devenu extrêmement actif. Après une période calme en janvier, la source s’est considérablement intensifiée : moins de 30 objets dans le ciel ont jamais atteint une telle luminosité dans le domaine radio… À titre de comparaison, la plupart des étoiles que nous détectons en radio sont environ 10000 fois moins lumineuses qu’ASKAP J1832 lors de cette flambée.
Les rayons X sont une forme de lumière que nous ne pouvons pas voir avec nos yeux. Ils proviennent généralement d’environnements extrêmement chauds et énergétiques. Bien qu’une dizaine d’objets similaires émettant des ondes radio (celles que nous avons détectées initialement) aient été découverts à ce jour, personne n’avait jamais observé d’émission X de leur part.
En mars, nous avons tenté d’observer ASKAP J1832 en rayons X. Cependant, en raison de problèmes techniques avec le télescope, l’observation n’a pas pu avoir lieu.
Puis, coup de chance ! En juin, j’ai contacté mon ami Tong Bao, chercheur postdoctoral à l’Institut national italien d’astrophysique, pour vérifier si des observations précédentes aux rayons X avaient capté la source. À notre grande surprise, nous avons trouvé deux observations antérieures provenant de l’observatoire à rayons X Chandra de la Nasa, bien que les données soient encore dans une période de diffusion limitée (et donc non encore rendues publiques en dehors d’un cercle restreint de chercheurs et chercheuses).
Nous avons contacté Kaya Mori, chercheur à l’université Columbia et responsable de ces observations. Il a généreusement partagé les données avec nous. À notre grande surprise, nous avons découvert des signaux X clairs provenant d’ASKAP J1832. Plus remarquable encore : les rayons X suivaient le même cycle de 44 minutes que les impulsions radio.
Ce fut un véritable coup de chance. Chandra était pointé vers une cible complètement différente, mais par pure coïncidence, il a capté ASKAP J1832 pendant sa phase inhabituellement brillante et active.
Un tel alignement fortuit est extrêmement rare, c’est comme trouver une aiguille dans une botte de foin cosmique.
La présence simultanée d’émissions radio et de sursauts X est une caractéristique commune des étoiles mortes dotées de champs magnétiques extrêmement puissants, telles que les étoiles à neutrons (étoiles mortes de grande masse) et les naines blanches (étoiles mortes de faible masse).
Notre découverte suggère qu’au moins certains objets transitoires à longue période pourraient provenir de ce type de vestiges stellaires.
Mais ASKAP J1832 ne correspond à aucune catégorie d’objet connue dans notre galaxie. Son comportement, bien que similaire à certains égards, reste atypique.
Nous avons besoin de plus d’observations pour vraiment comprendre ce qui se passe. Il est possible qu’ASKAP J1832 soit d’une nature entièrement nouvelle pour nous, ou qu’il émette des ondes radio d’une manière que nous n’avons jamais observée auparavant.
Ziteng Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.08.2025 à 19:22
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
*En 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée, elle est pourtant à l’origine de cette découverte majeure. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie. *
« La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. »
Cette phrase de Rosalind Franklin éclaire sa vision singulière : pour elle, la science n’était pas une abstraction, mais un chemin concret vers une meilleure compréhension du monde. Tout au long de sa vie, elle a su allier une rigueur scientifique sans faille à un engagement discret, dans un univers où les femmes peinaient encore à obtenir la reconnaissance qu’elles méritaient.
Ni figure publique ni militante affichée, Rosalind Franklin travaillait dans l’ombre, avec une exigence et une méthode implacables. Et pourtant, c’est grâce à son expertise que la lumière a traversé la molécule d’ADN, révélant sa fameuse forme en double hélice.
À une époque où la place des femmes en science restait fragile, elle imposa sa voie avec précision et détermination, convaincue que la véritable beauté réside dans la structure profonde des choses.
Le 25 juillet 1920, au cœur du quartier londonien de Notting Hill, naît Rosalind Elsie Franklin, deuxième enfant d’une fratrie de cinq. Issue d’une famille juive britannique aisée et cultivée, elle grandit dans un environnement où la rigueur intellectuelle et l’engagement social sont des piliers. Son père, Ellis Arthur Franklin, banquier passionné de physique, rêvait d’être scientifique mais a vu ses ambitions fauchées par la Première Guerre mondiale. Sa mère, Muriel Waley, militait activement pour l’éducation des femmes. Ce mélange d’idéalisme, de savoir et de devoir allait profondément façonner Rosalind.
Dès l’enfance, elle fait preuve d’une intelligence hors norme. À six ans, elle passe ses journées à résoudre des problèmes d’arithmétique, sans jamais faire d’erreur, selon sa tante. À neuf ans, elle se lance un défi personnel : finir chaque semaine première de sa classe. Elle tiendra ce pari pendant deux ans. Déjà se dessine une personnalité exigeante, compétitive et intensément tournée vers la connaissance. Mais dans la société britannique des années 1920, une telle ambition, chez une fille, suscite autant d’admiration que de réticence, dans un contexte où la place des femmes restait largement cantonnée à la sphère domestique.
Rosalind Franklin poursuit ses études au prestigieux St Paul’s Girls’ School, l’un des rares établissements à enseigner les sciences aux jeunes filles. Elle y brille, notamment en physique et en mathématiques. En 1938, elle entre au Newnham College de l’Université de Cambridge, l’un des deux collèges féminins de l’époque. Son choix de se spécialiser en chimie et en physique n’est pas encore courant chez les femmes.
En 1941, en pleine guerre mondiale, elle obtient son diplôme. Tandis que beaucoup de femmes sont orientées vers des rôles d’assistante, Rosalind refuse tout compromis et intègre un laboratoire du British Coal Utilisation Research Association (Association britannique pour la recherche sur l’utilisation du charbon). Elle y étudie la microstructure du charbon par diffraction des rayons X, technique qui deviendra sa spécialité.
Ces recherches, bien que menées dans un contexte de guerre, auront des retombées industrielles majeures, notamment pour la fabrication de masques à gaz et de matériaux isolants.
En 1945, Rosalind Franklin obtient un doctorat de Cambridge – un exploit pour une femme à cette époque. En effet, à cette période, Cambridge ne délivrait pas officiellement de diplômes aux femmes, ce qui rend cet accomplissement d’autant plus remarquable, car Franklin fait partie des premières à obtenir un doctorat dans un contexte universitaire encore très fermé aux femmes.
En 1947, une nouvelle étape marque sa vie : elle rejoint le Laboratoire Central des Services Chimiques de l’État, à Paris, sur invitation de Jacques Mering. Elle y perfectionne ses compétences en cristallographie par rayons X et découvre un environnement de travail plus ouvert, où sa parole est écoutée et ses idées respectées.
Elle se lie d’amitié avec des chercheurs, découvre la culture française, et adopte un mode de vie simple mais libre. Elle parcourt les Alpes à pied, discute dans les bistrots, s’immerge dans la langue et la gastronomie. Elle confiera plus tard :
« Je pourrais vagabonder en France pour toujours. J’adore le pays, les gens et la nourriture. »
Pour une femme qui a toujours ressenti le poids du sexisme britannique, la France offre alors un souffle de liberté. En effet, l’université britannique, en particulier Cambridge et King’s college, reste encore profondément patriarcale : les femmes sont exclues des clubs et réunions informelles et ne reçoivent officiellement des diplômes à Cambridge qu’à partir de 1947.
Mais la science l’appelle ailleurs. En 1951, elle retourne en Angleterre avec une bourse prestigieuse (Turner and Newall Fellowship). Elle rejoint le King’s College de Londres, au département de biophysique, pour travailler sur une mystérieuse molécule encore peu comprise : l’ADN. On sait, depuis Avery (1944), qu’elle joue un rôle dans l’hérédité, et Chargaff (1950) a établi que les bases azotées se répartissent selon des proportions constantes (A=T, G=C), mais la structure tridimensionnelle demeure inconnue. C’est là que son destin scientifique se joue.
Franklin apporte au projet son expertise pointue en diffraction X. En quelques mois, elle améliore considérablement les images de l’ADN, et capture l’une des photographies les plus célèbres de l’histoire de la biologie : le « cliché 51 ». Cette image révèle, avec une clarté inédite, la forme hélicoïdale de la molécule d’ADN. On y voit des taches disposées en forme de X, révélant que la molécule forme une double hélice régulière. L’espacement des taches renseigne sur la distance entre les bases (A, T, C et G), et leur symétrie suggère une structure très ordonnée.
Rosalind Franklin identifie également deux formes distinctes de l’ADN selon l’humidité (forme A et B), et démontre que les groupements phosphate sont orientés vers l’extérieur.
Mais derrière cette réussite, l’ambiance au laboratoire est tendue. Franklin est la seule femme scientifique du département, et ses collègues masculins, notamment Maurice Wilkins, voient son indépendance comme de l’insubordination. En effet, Wilkins pensait que Franlkin arrivait au laboratoire comme assistante sous sa direction. De son côté, Rosalind pensait avoir été recrutée pour diriger ses propres recherches sur l’ADN,de manière indépendante. Cette incompréhension institutionnelle a été exacerbée par une communication défaillante de la part de John Randall, directeur du laboratoire, qui n’a pas informé Wilkins de l’autonomie accordée à Franklin. Wilkins n’a appris cette décision que des années plus tard, ce qui a contribué à des tensions professionnelles. Ce dernier, persuadé qu’elle est son assistante, se heurte à son refus catégorique de toute hiérarchie injustifiée. Leur relation devient glaciale. Dans ce climat conservateur et misogyne, Franklin se heurte à un plafond de verre invisible, mais solide.
C’est dans ce contexte qu’un événement aux lourdes conséquences se produit. Sans son consentement, Wilkins montre le cliché 51 à James Watson, jeune chercheur de Cambridge. Ce dernier, avec Francis Crick, travaille lui aussi sur l’ADN, mais sans données expérimentales directes. En découvrant la photographie, Watson est stupéfait :
« Ma mâchoire s’est ouverte et mon pouls s’est emballé. »
La photographie de Franklin devient la pièce manquante qui leur permet de construire leur célèbre modèle de la double hélice. En avril 1953, trois articles fondamentaux sur l’ADN paraissent dans la revue Nature. Le premier, signé par Watson et Crick, propose le célèbre modèle en double hélice, fondé sur des raisonnements théoriques et des données expérimentales issues d’autres laboratoires – notamment le cliché 51, transmis à leur insu par Maurice Wilkins. Le second article, coécrit par Wilkins, Stokes et Wilson, présente des résultats de diffraction des rayons X qui confirment la présence d’une structure hélicoïdale, en cohérence avec le modèle proposé. Le troisième, rédigé par Rosalind Franklin et Raymond Gosling, expose avec rigueur leurs propres données expérimentales, parmi les plus décisives, mais sans que Franklin ait été informée de leur utilisation préalable par Watson et Crick. Bien que sa contribution soit déterminante, elle n’est mentionnée que brièvement dans les remerciements.
Watson la surnomme plus tard dans ses mémoires « Rosy », un diminutif qu’elle n’a jamais utilisé et qu’elle détestait. Il la décrit comme austère, inflexible, difficile – un portrait injuste qui trahit davantage les préjugés de l’époque que la réalité de sa personne. Ses collègues masculins l’appellent la « Dark Lady » de l’ADN.
Blessée, fatiguée par ce climat toxique, Franklin quitte le King’s College dès la fin 1953. Mais loin d’abandonner, elle rebondit immédiatement.
Elle rejoint alors le Birkbeck College, un établissement de l’Université de Londres situé à Bloomsbury, sur l’invitation du physicien John Bernal qui la qualifie de « brillante expérimentatrice ». Elle y obtient un poste de chercheuse senior, à la tête de son propre groupe de recherche, financé par l’Agricultural Research Council. Là, elle applique ses compétences en diffraction X à un nouveau domaine : les virus. Elle se lance dans l’étude du virus de la mosaïque du tabac, un petit virus végétal très étudié. Avec son équipe, les doctorants Kenneth Holmes et John Finch, le jeune chercheur postdoctoral Aaron Klug, futur prix Nobel, ainsi que l’assistant de recherche James Watt, elle démontre que l’ARN du virus est situé à l’intérieur d’une coque protéique hélicoïdale. Cette découverte est essentielle car elle montre la forme en 3D du virus, explique comment l’ARN est protégé à l’intérieur, et crée les bases pour mieux comprendre les virus. Cela a aidé à progresser dans la recherche pour trouver des traitements contre les infections virales.
Entre 1953 et 1958, elle publie plus de 15 articles majeurs, établissant les bases de la virologie moléculaire. Elle travaille également sur la structure du virus de la polio, en collaboration avec le futur prix Nobel Aaron Klug, récompensé en 1982 pour son développement de la microscopie électronique cristallographique et l’élucidation des complexes biologiques entre acides nucléiques et protéines. Elle est enfin dans un environnement où elle est écoutée, respectée, et même admirée.
Mais en 1956, le destin frappe cruellement. Au cours d’un séjour aux États-Unis, Franklin ressent de fortes douleurs abdominales. Le diagnostic tombe : cancer des ovaires. Elle a 36 ans. La maladie est probablement liée à son exposition répétée aux rayons X, à une époque où les protections étaient rudimentaires, voire absentes.
Malgré plusieurs opérations et de lourds traitements, elle continue de travailler, fidèle à sa discipline et à sa passion. Jusqu’à ses derniers mois, elle écrit, corrige, encourage, dirige. Elle meurt le 16 avril 1958, à l’âge de 37 ans.
Quatre ans après sa mort, en 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée. Officiellement, le prix ne peut être attribué à titre posthume. Officieusement, elle n’a jamais été sérieusement envisagée comme co-lauréate, car son nom ne circulait pas dans les cercles masculins du pouvoir scientifique.
Il faudra attendre les années 1970 pour que sa contribution soit pleinement reconnue. D’abord par Anne Sayre, amie de Franklin, journaliste américaine et amie proche de Franklin rencontrée à Londres dans les années 1950 grâce à leur cercle social commun lié au monde scientifique, qui publie Rosalind Franklin and DNA en 1975 pour rétablir les faits. Puis, bien après, en 2002, avec la biographie The Dark Lady of DNA, écrite par Brenda Maddox et qui rencontre un grand écho international.
Aujourd’hui, son nom est inscrit sur des bâtiments universitaires, des bourses, des prix scientifiques. En 2020, elle est sélectionnée par le magazine Nature parmi les plus grandes scientifiques du XXe siècle. En 2021, la mission spatiale européenne vers Mars, nommée Rosalind Franklin Rover, a été lancée pour chercher des traces de vie passée dans le sous-sol martien. Ce nom rend hommage à Franklin, dont les travaux sur la structure de l’ADN symbolisent la recherche des bases moléculaires du vivant.
Rosalind Franklin, longtemps éclipsée par ses pairs, incarne aujourd’hui bien plus qu’une figure oubliée de la science. Elle est devenue un symbole de ténacité, d’éthique scientifique, et de justice. Une pionnière dont l’éclat posthume inspire chercheuses et chercheurs à persévérer malgré les obstacles, les discriminations et les injustices qu’ils peuvent rencontrer.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.08.2025 à 14:17
Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris - PSL
Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.
Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.
Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.
Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.
Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.
L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.
Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.
Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.
Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).
Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.
L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.
Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.
Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.
Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.
Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.
Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.
Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.
Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.
Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.
L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.
Gabriel Kasmi a reçu des financements de RTE et de l'Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d'une convention Cifre). Il est membre du think tank Zenon.
06.08.2025 à 13:06
Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania
La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !
Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.
Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.
Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.
Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».
Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.
Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.
Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.
En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.
Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.
Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.
Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.
Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.
Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.
Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.
Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.
Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.
Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.
La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.
Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:06
Pierre-Alain Duc, Directeur de recherche au CNRS, directeur de l'Observatoire astronomique de Strasbourg, Université de Strasbourg
L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge.
Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement.
Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois.
La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées.
En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ?
Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies.
Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT).
Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure.
Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.
À lire aussi : Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble
Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres.
Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données.
Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache !
Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable.
L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique.
Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble.
Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut.
La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre.
Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens.
Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie.
Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile.
Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première !
Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:05
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Il fait 32 °C dans votre salon. Vous allumez le ventilateur, et en quelques secondes, une sensation de fraîcheur vous envahit. Pourtant, la température de l’air n’a pas changé. Alors, comment un simple souffle peut-il nous faire croire qu’il fait plus frais ? Pourquoi recommande-t-on aujourd’hui d’y ajouter un brumisateur ?
Ce phénomène, bien plus subtil qu’il n’y paraît, s’explique à l’interface entre physique et biologie au niveau de la peau ; et implique bien sûr notre système nerveux en ce qui concerne la perception sensorielle.
Contrairement à ce qu’on pourrait penser, un ventilateur ne refroidit pas l’air : il se contente de le mettre en mouvement. D’ailleurs, un ventilateur électrique émet un peu de chaleur en raison de son moteur qui convertit l’énergie électrique en chaleur.
Dans une pièce isolée de 1 mètre cube maintenue à -30 °C, un ventilateur peut faire monter la température de 1 °C : on voit bien que l’effet est minime et sans impact sensible dans la plupart des situations.
Ce que le ventilateur modifie, c’est notre perception. Il crée une sensation de fraîcheur, sans réellement baisser la température. Cette impression vient de notre propre corps, qui réagit aux flux d’air en activant ses mécanismes naturels de régulation thermique.
Pour comprendre cette sensation de fraîcheur, il faut donc s’intéresser à la manière dont notre organisme gère sa température interne. Car c’est là, dans les échanges constants entre notre peau, l’air et notre système nerveux, que se joue le vrai mécanisme du rafraîchissement.
En effet, le corps humain fonctionne un peu comme une machine thermique : il produit de la chaleur en permanence (quand on bouge, digère…).
Pour éviter la surchauffe interne, l’organisme active un système de refroidissement très efficace : la transpiration.
Quand vous avez chaud, votre peau libère de la sueur. En s’évaporant, la sueur consomme de l’énergie (qu’on appelle la « chaleur latente de vaporisation ») : elle absorbe de la chaleur de votre corps. La sueur lui vole en quelque sorte des calories, ce qui le refroidit.
Mais ce mécanisme dépend beaucoup des conditions extérieures. Si l’air ambiant est chaud et humide, l’évaporation de la sueur devient moins efficace, car l’air est déjà presque saturé en humidité et est moins susceptible d’absorber celle de votre sueur. Résultat : vous continuez à transpirer, mais sans évaporation efficace, la sueur stagne sur la peau et n’extrait plus de chaleur. Autrement dit, elle ne vole plus les calories à votre peau qui permettraient à votre corps de se refroidir.
C’est là qu’intervient le ventilateur ! En brassant l’air saturé autour de la peau, le ventilateur le remplace par de l’air plus sec, ce qui favorise l’évaporation et aide votre corps à se refroidir.
En complément, l’utilisation d’un brumisateur apporte un refroidissement supplémentaire en projetant de fines gouttelettes d’eau sur la peau.
En ajoutant des gouttelettes, on augmente la quantité d’eau disponible pour l’évaporation, ce qui permet d’extraire davantage de chaleur de la peau et d’intensifier le refroidissement.
L’association du brumisateur et du ventilateur optimise le confort thermique dans les climats chauds en maximisant l’évaporation. En revanche, lorsque l’air est très humide et saturé de vapeur d’eau, ce mécanisme est inefficace, car l’évaporation est limitée.
Ainsi, le brumisateur est particulièrement performant dans les environnements secs, où l’air peut absorber facilement l’humidité, tandis que le ventilateur favorise le renouvellement de l’air humide autour de la peau, évitant ainsi la saturation locale et maintenant un gradient favorable à l’évaporation.
Mais ce n’est pas tout. Même sans sueur, votre corps transfère de la chaleur à l’air ambiant : c’est la convection.
Cela signifie que l’air en contact avec votre peau se réchauffe légèrement. Quand l’air est immobile, cette couche d’air chaud reste collée à la peau comme une fine couverture.
En mettant l’air en mouvement, le ventilateur dissipe la fine couche d’air chaud qui entoure votre peau. Cela permet à la chaleur d’être évacuée plus rapidement, ce qui provoque une sensation quasi immédiate de fraîcheur.
Plus précisément, des chercheurs ont montré que, lorsque la vitesse de l’air augmente, l’évaporation de la sueur peut croître de près de 30 % pour une vitesse d’air de 2 mètres par seconde (ce qui équivaut à environ 7 kilomètres par heure). Parallèlement, la perte de chaleur par convection s’intensifie également grâce au renouvellement constant de l’air chaud proche de la peau.
Ce phénomène s’appelle l’« effet de refroidissement éolien », ou wind chill. Il explique pourquoi, en hiver, un vent fort peut vous faire ressentir un froid bien plus intense que la température réelle : par exemple, un 0 °C accompagné de vent peut être perçu comme -10 °C, car votre corps perd sa chaleur plus vite.
En été, c’est le même principe : le souffle du ventilateur ne fait pas baisser la température de la pièce, mais il favorise la perte de chaleur corporelle, donnant l’illusion que l’air ambiant est plus frais. C’est une température ressentie plus basse, pas une température réelle.
Un ventilateur est donc bien un allié optimal. Il n’abaisse pas la température de l’air, mais accélère la perte de chaleur de votre corps. Il facilite ainsi vos mécanismes naturels de refroidissement tels que l’évaporation de la sueur, la convection de la chaleur, la perception sensorielle de l’air en mouvement.
En réalité, l’air reste à la même température : c’est vous qui refroidissez plus vite… et votre cerveau traduit cette perte de chaleur par une agréable sensation de fraîcheur !
À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température
Ce processus n’est pas trivial. Il repose sur une interaction complexe entre des récepteurs sensoriels situés dans la peau et des régions spécifiques du cerveau, notamment le cortex insulaire postérieur. Ces récepteurs détectent les variations de température corporelle et transmettent ces informations au cerveau, qui les intègre pour générer une sensation consciente de fraîcheur.
Ainsi, ce que vous ressentez comme une fraîcheur agréable est en réalité une perception cérébrale fine et sophistiquée de la baisse réelle de la température de votre corps.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.08.2025 à 16:57
David Brutin, Enseignant-chercheur, Aix-Marseille Université (AMU)
Dans les enquêtes criminelles, chaque détail compte. Une trace de sang, l’angle d’un impact, la position d’un corps : tous ces éléments peuvent changer la compréhension d’une scène de crime. Pourtant, malgré les avancées technologiques en matière de criminalistique, les enquêteurs, les magistrats ou les jurés restent encore trop souvent confrontés à des difficultés majeures (difficile représentation d’une scène 3D pour les jurés, scène de crime originelle altérée, impossibilité de reconstitution) lorsqu’il s’agit de reconstituer des faits sanglants, par nature complexes.
C’est ce constat qui a conduit à la naissance du projet iCRIME, que je porte, un programme de recherche pluridisciplinaire financé par l’Agence nationale de la recherche (ANR), visant à transformer notre manière d’aborder les scènes de crime sanglantes grâce aux outils de la simulation numérique et de la réalité virtuelle.
Dans le cadre d’une enquête judiciaire, la scène de crime joue un rôle fondamental. C’est là que débute la construction du récit des événements. Mais cette scène, par nature éphémère, est rapidement figée, nettoyée, voire détruite. La fixation de la scène, quand cela est considéré comme nécessaire par le magistrat, est réalisée par la prise de photographies éventuellement complétées par un nuage de points dans l’espace captés par une technologie de télédétection qui utilise un laser.
Lors des procès, les magistrats doivent alors se baser sur des plans en deux dimensions, des photos ou des témoignages, souvent incomplets, pour comprendre ce qui s’est passé. Ce manque de lisibilité nuit parfois à l’analyse objective des faits, en particulier dans les affaires complexes où plusieurs versions s’opposent.
De plus, les reconstitutions judiciaires sont coûteuses, difficiles à organiser et peuvent être biaisées par l’environnement dans lequel elles se déroulent (lieux différents, conditions lumineuses éloignées de la réalité, impossibilité de reproduire des gestes avec précision, etc.). Ces limites sont connues de longue date par les acteurs de la justice.
Mais comment faire évoluer les pratiques tout en garantissant la rigueur scientifique et le respect du droit ? C’est à cette question qu’a voulu répondre iCRIME.
Notre projet est né d’une collaboration entre chercheurs, magistrats et acteurs des forces de sécurité intérieure. L’objectif est simple : mettre au service de la justice des outils immersifs et interactifs permettant de mieux comprendre les scènes de crime et les dynamiques d’événements.
iCRIME repose sur le traitement automatisé de quantités de données massives issues de l’archivage des scènes de crimes puis de leur restitution en réalité virtuelle. La simulation physique et dynamique des scènes de crimes est également ajoutée à iCRIME, c’est-à-dire la modélisation des comportements des corps, des projectiles, des fluides et des interactions entre objets dans un espace 3D réaliste.
D’ores et déjà, iCRIME propose de s’immerger dans un environnement virtuel en présence d’un avatar qu’il est possible de poignarder. La trajectoire des gouttes de sang résultantes est visualisée en direct et les impacts de gouttes de sang sur le sol ou sur les murs sont fidèles aux équations de la mécanique des fluides. Notre outil permet également d’effectuer le calcul inverse du point d’origine sur la base de taches de sang permettant ainsi de confronter différentes hypothèses sur la position de l’avatar.
À terme, iCRIME proposera une immersion en réalité virtuelle dans des scènes de crime ensanglantées fidèlement modélisées. Grâce à un casque de réalité virtuelle, les utilisateurs peuvent déjà se déplacer librement dans un environnement numérique qui reproduit les lieux à l’identique. Cette immersion permettra une exploration intuitive, une meilleure appropriation de l’espace et une interaction directe avec les éléments de preuve. iCRIME ne se contentera pas de montrer une scène figée : il permettra d’analyser les hypothèses, de comparer plusieurs versions des faits et d’en débattre dans un espace partagé, que l’on soit enquêteur, expert, avocat ou magistrat. iCRIME permettra de « faire parler » la scène de crime.
Notre apport majeur réside dans notre capacité à simuler numériquement les événements via des modèles physiques élaborés par des chercheurs. Qu’il s’agisse d’un mouvement de corps ou de la dispersion de gouttelettes de sang, iCRIME repose sur des modèles physiques issus de la recherche expérimentale. Ces modèles validés, par des protocoles expérimentaux, permettront de confronter les différentes versions des faits par une analyse objective. Concrètement, cela signifie que l’on peut déjà reproduire une projection de sang depuis un point donné, analyser la trajectoire de la goutte, sa vitesse, son interaction avec des obstacles ou des surfaces.
Quand iCRIME sera certifié, il sera ainsi possible de vérifier si une version des faits est compatible avec les traces observées.
Cette approche ne se substitue pas à l’enquête, mais elle enrichit l’analyse en objectivant certaines hypothèses. La robustesse scientifique est au cœur du projet. Chaque simulation peut être paramétrée, rejouée, comparée, et surtout, elle laisse une trace : on peut documenter ce qui a été testé, selon quelles hypothèses, et avec quels résultats. C’est un outil au service de la transparence et de la contradiction, deux piliers du procès équitable.
iCRIME est certes encore en cours de développement, mais plusieurs usages sont d’ores et déjà envisagés. Par exemple, son utilisation dans ce que l’on appelle les « Cold Case » pour immerger un témoin, un suspect ou un mis en cause dans une scène de crime ancienne qui existerait toujours et qui serait reconstituée fidèlement en réalité virtuelle. iCRIME permettra ainsi de plonger une personne dans l’environnement pour lui faire évoquer des souvenirs ou des ressentis. Des images ou des sons pourront être joués pour favoriser la remontée de souvenirs afin d’aider à faire avancer une ancienne enquête. Les magistrats et les professionnels du droit voient clairement dans ces outils un levier pour renforcer la compréhension des affaires complexes.
Mais l’introduction de ces technologies dans la justice ne va pas sans débats : quel statut juridique accorder à une simulation même ouverte au contradictoire ? Comment éviter l’effet de persuasion que peut produire une scène immersive ? Quelle formation pour les magistrats, les avocats et les jurés ?
Autant de questions auxquelles notre projet tente de répondre. Son ambition n’est pas de trancher à la place du juge, mais de donner des clés de lecture plus fiables et rigoureuses. En cela, iCRIME s’inscrit dans une démarche de justice augmentée : une justice qui utilise les technologies non pour impressionner, mais pour éclairer.
David Brutin est le coordinateur d’un projet de recherche sur les technologies immersives au service des acteurs de la justice pénale, iCrime, soutenu par l’Agence nationale de la recherche ANR. Il a présenté ce projet au workshop interdisciplinaire pour la sécurité globale qui s’est déroulé les 26 et 27 mars 2025 à Paris-Saclay.
David Brutin a reçu des financements de l'ANR.
04.08.2025 à 16:24
Lauriane Soret, Planétologue, Université de Liège
Sur la planète Mars, il y a des lumières qui dansent dans la nuit, un peu comme les aurores boréales sur Terre. On peut aujourd’hui les observer dans différentes couleurs, depuis l’orbite ou à la surface de la planète rouge… et vert, donc.
Mars, la planète rouge, n’est finalement pas uniquement rouge.
Durant la nuit, la planète se pare de lumières vertes, certaines semblables aux aurores boréales ou australes se produisant sur Terre. Ces lueurs sont si intenses qu’elles pourraient être observées à l’œil nu par de futurs astronautes en orbite ou à la surface de Mars. Mais outre les aurores, les astronautes pourront également voir un autre phénomène lumineux nocturne appelé « nightglow », ce que l’on pourrait traduire par « lueur nocturne ».
Aurores et lueurs nocturnes martiennes étaient bien connues dans l’ultraviolet et l’infrarouge, principalement grâce aux missions Mars Express (depuis 2003) et MAVEN (depuis 2013). Mais c’est depuis 2023 seulement que nous avons pu les détecter dans le domaine du visible, grâce à la mission ExoMars de l’Agence spatiale européenne (ESA) et aux observations du rover Perseverance de la NASA.
Ces observations ouvrent la voie à de futures études avec des instruments conçus dans le domaine de visible, plus simples, plus légers et moins onéreux que ceux conçus pour observer les ultraviolets. En particulier, le nightglow doit nous apprendre davantage sur la dynamique et de la composition de l’atmosphère martienne ; tandis que les aurores nous renseignent sur les interactions entre le vent solaire et la planète rouge… et vert.
Même si ces deux types d’émission lumineuse, aurore et nightglow, produisent des lueurs dans l’atmosphère, les processus en jeu sont complètement différents.
Les aurores sont le résultat de l’interaction de particules énergétiques venant de l’espace avec les atomes ou molécules de l’atmosphère neutre de la planète, par exemple l’azote ou l’oxygène sur Terre, et le CO2 sur Mars. Sur Terre, les aurores se forment près des pôles, car c’est là que convergent les lignes du champ magnétique terrestre que suivent les électrons du vent solaire.
Mais sur Mars, la réalité est bien plus complexe, car le noyau de la planète Mars ne génère pas de champ magnétique comme celui de la planète Terre. C’est d’ailleurs pour cette raison que la communauté scientifique ne s’attendait pas à trouver d’aurores dans l’atmosphère martienne, jusqu’à la découverte d’émissions aurorales ultraviolettes, en 2005, avec l’instrument SPICAM de Mars Express (ESA).
À lire aussi : D’où viennent les aurores boréales, et pourquoi sont-elles si différentes sur Jupiter?
Le nightglow se forme différemment, par une suite de réactions « photochimiques ». Du côté de la planète où il fait jour, les molécules naturellement présentes dans l’atmosphère sont dissociées par les photons émis par le Soleil. Par exemple, les photons peuvent casser une molécule de CO2 en atomes de carbone et d’oxygène. Les atomes nouvellement créés sont transportés par la circulation atmosphérique provoquée par une différence de température, vers le côté nuit, où il fait beaucoup plus froid. Les atomes se recombinent alors pour reformer une molécule. La molécule se trouve cette fois dans un état excité : elle va émettre de la lumière à une longueur d’onde caractéristique en revenant à son état fondamental. C’est cette émission que l’on appelle nightglow.
Les sources de ces émissions lumineuses (aurores et nightglow) étant différentes, elles nous permettent d’étudier différents paramètres de l’atmosphère, à différents endroits et différentes altitudes de l’atmosphère.
Grâce à l’instrument SPICAM de Mars Express, notre équipe a pu observer une vingtaine d’aurores sur Mars. Toutes se situaient aux endroits où le champ magnétique résiduel piégé dans la roche à la surface de Mars est le plus fort – une région s’étend principalement dans l’hémisphère Sud, entre 120° et 250° de longitude.
À cet endroit, les lignes de champ magnétique forment des arcs qui agissent comme des boucliers contre les particules énergétiques, un peu comme un mini champ magnétique terrestre.
Entre deux arcades, les lignes de champ sont ouvertes et forment des sortes de canyons, dans lesquels les électrons venant du vent solaire se précipitent et interagissent avec les atomes et molécules neutres de l’atmosphère, principalement dioxyde de carbone et oxygène. Ces atomes et molécules se retrouvent alors dans un état excité instable et, lorsqu’ils se désexcitent pour retrouver dans leur état fondamental, émettent des photons à des longueurs d’onde bien caractéristiques. C’est ainsi que l’on trouvera principalement des émissions de monoxyde de carbone (CO), dioxyde de carbone ionisé (CO2+) et oxygène (O) dans l’ultraviolet et des émissions d’oxygène dans l’ultraviolet lointain. Ces émissions se produisent à environ 135 kilomètres d’altitude.
Depuis 2013, grâce aux instruments IUVS de la mission MAVEN de la NASA et EMUS à bord d’Emirates Mars Mission bien plus sensibles que SPICAM, nous sommes constamment surpris !
En effet, nous savons désormais que des émissions aurorales se produisent également en dehors de la zone de fort champ magnétique résiduel. Elles sont moins intenses, mais beaucoup plus fréquentes dans l’hémisphère Nord, par exemple.
D’autres types d’aurores ont également été observés : des aurores sinueuses, avec une forme de serpent dont la longueur peut couvrir tout un hémisphère en se déplaçant très rapidement, ou encore des aurores diffuses qui peuvent recouvrir toute la face nocturne de la planète ! Ces aurores diffuses se produisent plus bas en altitude, à environ 60 kilomètres à 80 kilomètres. Elles se produisent assez rarement car elles nécessitent la présence d’évènements SEP (pour Solar Energetic Particle) durant lesquels les particules émises par le Soleil, principalement des protons, se retrouvent fortement accélérées.
Aurores et activité solaire sont donc intimement liées. Les aurores martiennes peuvent avoir, comme sur Terre, des endroits de formation privilégiés, mais sont globalement très variables et assez difficilement prévisibles.
Nous savons que l’une des émissions aurorales précédemment observées dans l’UV (les atomes d’oxygène excités émettant à 297 nanomètres) possède une contrepartie dans le domaine du visible – il s’agit de la raie de l’oxygène à 557 nanomètres, qui donne sa couleur verte aux aurores terrestres. Cette composante devrait également être observable dans l’atmosphère martienne.
Et c’est l’exploit qu’a réalisé l’équipe du rover Perseverance en détectant la première aurore visible dans le ciel martien en mars 2024. L’équipe a guetté l’apparition d’évènements SEP au niveau du Soleil pour commander à distance au rover d’observer le ciel durant les nuits correspondantes. Une stratégie fructueuse, puisque l’émission à 557 nanomètres a été détectée par le spectromètre de Perseverance ! C’est donc la première fois qu’une image d’une aurore a été prise depuis le sol d’une planète autre que celui de la Terre.
L’intensité de cet évènement aurait probablement été trop faible pour pouvoir être perceptible par un œil humain, mais d’autres aurores, plus intenses, pourraient tout à fait être détectées à l’œil nu par de futurs astronautes à la surface ou en orbite autour de Mars.
Dans le cas de Mars, les photons émis par le Soleil interagissent avec les molécules de CO2 majoritairement présentes dans l’atmosphère martienne (~96 %), principalement au niveau du pôle d’été, éclairé et échauffé par le Soleil.
Les molécules de CO2 sont alors dissociées et les atomes d’oxygène sont transportés vers le pôle d’hiver plongé dans la nuit et le froid, par ce que l’on appelle la circulation été-hiver. Là, les atomes d’oxygène se recombinent pour former une molécule de O2 dans un état excité, qui émet alors une émission lumineuse à une longueur d’onde caractéristique en retournant à son état fondamental. C’est cette émission, que l’on observe dans la nuit polaire martienne d’hiver, que l’on appelle nightglow.
Ce nightglow a d’abord été observé dans l’infrarouge, à 1,27 micromètre, à partir de l’orbite martienne, par la mission MRO (pour Mars Reconnaissance Orbiter), lancée en 2005, par la NASA.
Mais c’est en 2023 que cette émission de l’oxygène a été observée pour la toute première fois dans le domaine du visible, à environ 50 kilomètres d’altitude. Contrairement aux aurores, variables et difficilement prévisibles, le nightglow est très homogène dans le temps et dans l’espace.
De plus, son intensité est telle que de futurs astronautes n’auraient aucune difficulté à observer un ciel vert au-dessus du pôle d’hiver lors d’une belle nuit étoilée.
Grâce à ces avancées majeures dans le domaine du visible, nous savons désormais qu’il nous est possible de continuer d’étudier l’atmosphère de Mars en utilisant des instruments plus simples, plus légers et moins onéreux en utilisant le domaine visible plutôt que celui de l’ultraviolet.
C’est ce que nous voulons faire avec la caméra aurorale M-AC à bord de M-MATISSE, une mission que nous avons proposée à l’Agence spatiale européenne (ESA) et qui est actuellement en phase de sélection. Deux orbiteurs emporteraient à leur bord différents instruments pour analyser l’environnement de Mars, ainsi qu’une caméra avec un filtre pour observer les émissions vertes autour de 557 nanomètres.
Grâce à M-AC, nous pourrions photographier et prendre des vidéos des aurores martiennes avec une résolution et une sensibilité jamais atteintes auparavant. Si elle est acceptée par l’ESA, cette mission devrait être lancée en 2037 en direction de la planète rouge… et vert !
Lauriane Soret a reçu des financements du F.R.S.-FNRS.