03.09.2025 à 12:38
Olivier Minazzoli, Astrophysicien, Université Côte d’Azur
La relativité générale d’Einstein est souvent présentée comme une construction théorique guidée par des principes fondamentaux, plus que par l’observation. Le dernier de ces principes, connu sous le nom de « principe de Mach », est aujourd’hui largement tombé dans l’oubli. Pourtant, c’est lui qui a conduit Albert Einstein à introduire dans ses équations la constante cosmologique, aujourd’hui interprétée comme l’énergie sombre, à l’origine de l’accélération de l’expansion de l’Univers.
Le mouvement est-il relatif ou absolu ? Si la question a longtemps animé les débats philosophiques depuis l’Antiquité, c’est surtout à partir du XVIe siècle, avec l’édification des lois de la gravitation, qu’elle a quitté la seule arène des philosophes pour entrer dans celle des astronomes et des physiciens.
Pour Isaac Newton, aucun mouvement ne peut être conçu sans la notion d’un espace rigide et absolu, servant de référence pour définir la trajectoire des objets. À l’opposé, pour Christian Huygens, Gottfried Wilhelm Leibniz et, plus tard, Ernst Mach, ce sont les autres objets qui servent de repères. Dès lors, aucun mouvement ne devrait pouvoir être défini en l’absence totale de matière : ôtez toute référence matérielle, et il devient impossible de dire si un objet est en mouvement ou au repos.
Influencé par Mach, Einstein érigea ce point de vue en principe fondateur de sa théorie de la relativité générale. Il en mentionna l’idée pour la première fois en 1912, puis la qualifia tour à tour d’« hypothèse », de « postulat », avant de finalement l’appeler « principe de Mach » en 1918, en hommage au physicien et philosophe autrichien qui avait nourri sa réflexion.
À première vue, la relativité générale semble en accord avec ce principe, dans la mesure où l’espace n’y est plus la structure rigide et absolue de Newton, mais un objet dynamique influencé par la matière. En effet, dans la théorie d’Einstein, la gravitation n’est pas une force à proprement parler, mais la manifestation de la courbure de l’espace et du temps, induite par la matière : toute source d’énergie ou de masse déforme l’espace-temps, et c’est cette courbure qui gouverne le mouvement des corps.
Néanmoins, Einstein avait conscience que, pour satisfaire pleinement ce principe, il ne suffisait pas que la matière influence la géométrie de l’espace-temps : il fallait qu’elle la détermine entièrement. C’est ce qui le conduisit à modifier ses équations en y introduisant la constante cosmologique – que l’on interprète aujourd’hui comme l’énergie sombre, responsable de l’accélération de l’expansion de l’Univers.
À lire aussi : Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice
Deux problèmes semblaient se poser à Einstein dans la version initiale de sa théorie de la relativité générale, sans cette constante.
Le premier est que ses équations admettent des solutions du vide : elles permettent, en théorie, l’existence d’un espace-temps même en l’absence complète de matière. Cela contredisait directement son « principe de Mach ». Il écrira d’ailleurs en 1918 :
« À mon avis, la théorie de la relativité générale n’est satisfaisante que si elle démontre que les qualités physiques de l’espace sont entièrement déterminées par la matière seule. Par conséquent, aucun espace-temps ne peut exister sans la matière qui le génère. » Albert Einstein, Actes de l’Académie royale des sciences de Prusse, 1918.
Le second problème concernait les conditions aux limites de l’espace-temps, c’est-à-dire, de la structure supposée de l’espace-temps à l’infini. Il semblait nécessaire de les introduire, mais elles étaient soit incompatibles avec son principe, soit conduisaient, pensait-il, à prédire un mouvement des astres lointains qui n’était pas observé. C’est peut-être d’une réinterprétation de cette difficulté qu’est née l’idée, aujourd’hui répandue, selon laquelle Einstein aurait introduit la constante cosmologique pour conformer sa théorie à une vision préconçue d’un Univers statique et donc éternel.
Comme il l’explique dans l’article où il introduit la constante cosmologique, celle-ci permet d’éviter le recours à des conditions aux limites problématiques, en autorisant un Univers fini mais sans bord.
Pour se représenter ce qu’est un Univers « fini mais sans bord », on peut penser à la surface d’une sphère. Elle ne possède pas de frontière — on peut y circuler sans jamais atteindre de bord – et pourtant, sa surface est finie (égale à quatre fois π fois le rayon au carré).
À lire aussi : Où est le centre de l’Univers ?
C’est ainsi qu’Einstein a inventé le tout premier modèle physique de l’Univers dans son ensemble ! Il s’agit d’un Univers sphérique, en équilibre, avec une répartition uniforme de matière. Si son modèle est celui d’un Univers statique (c’est-à-dire, qui n’évolue pas avec le temps), il est clair que pour Einstein il ne s’agit que d’une première approximation qui permet de résoudre les équations.
Mais nous le savons aujourd’hui : le modèle d’Einstein ne correspond pas à notre Univers. Qui plus est, il est théoriquement insatisfaisant, car instable : tout écart, même minime, à l’approximation homogène qu’il utilise conduit à prédire sa destruction. Or, notre Univers n’est certainement pas exactement homogène !
Ensuite, il est désormais établi – depuis que l’astronome néerlandais Willem de Sitter l’a démontré – que, même avec une constante cosmologique, la relativité générale admet des solutions dans lesquelles l’espace-temps peut, en théorie, exister sans aucune forme de matière.
L’introduction de la constante cosmologique échoue donc à rendre la relativité générale compatible avec le principe de Mach — ce qui était, rappelons-le, l’intention initiale d’Einstein en introduisant la constante cosmologique dans ses équations. C’est vraisemblablement pour cette raison qu’Einstein qualifiera plus tard son introduction de « plus grande erreur de sa vie » (des propos relayés par George Gamow dans son autobiographie).
Ce principe oublié a ainsi poussé Einstein à penser l’Univers dans son ensemble, donnant naissance à la toute première solution mathématique d’un Univers en relativité générale – et donc à la cosmologie moderne. Par un enchaînement ironique de l’histoire scientifique, il l’a amené à introduire une constante pour une raison qui, en fin de compte, ne fonctionnera pas – mais dont l’adéquation aux observations sera confirmée des décennies plus tard, en 1998, par l’observation de supernovae lointaines. Cette découverte vaudra à Saul Perlmutter, Brian Schmidt et Adam Riess le prix Nobel de physique en 2011, près d’un siècle après l’élaboration de la théorie d’Einstein.
La capacité de l’esprit humain à concevoir des principes abstraits qui peuvent dévoiler la structure du réel interroge. Comment une idée a priori, née sans données empiriques, peut-elle conduire à une loi objective du monde ?
Cela s’explique néanmoins simplement : les scientifiques formulent des hypothèses, des principes et des modèles — certains échouent et tombent dans l’oubli, d’autres se révèlent féconds. C’est ce que suggère la belle image du penseur-poète Novalis :
« Les hypothèses sont des filets : seuls ceux qui les jettent attrapent quelque chose ». Novalis, The Disciples at Sais and Other Fragments, Thoughts on Philosophy, Love and Religion, page 68, 1802.
C’est en jetant le sien qu’Einstein a donné naissance à la cosmologie moderne.
Pour aller plus loin : la traduction française de l’article « Les formulations d’Einstein du principe de Mach », écrit par Carl Hoefer et traduit par l’auteur du présent article, est disponible ici.
Olivier Minazzoli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.09.2025 à 12:38
Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
L’addiction à l’alcool n’est pas qu’une question de société. C’est aussi une vieille histoire d’évolution, de fruits fermentés et de mutations génétiques.
Des fruits trop mûrs au sol, légèrement gonflés, un peu mous, odorants… et légèrement alcoolisés. Voilà ce que nos ancêtres de la lignée des hominoïdes, aujourd’hui représentée par les grands singes et l’humain, trouvaient souvent dans les forêts tropicales de l’Afrique. Et ce petit goût d’éthanol, ils l’adoraient.
Selon l’hypothèse du « Drunken Monkey » (singe ivre), formulée par Robert Dudley dès l’an 2000, la consommation d’éthanol chez les humains ne viendrait pas d’une dégénérescence culturelle moderne, mais bien d’une pression évolutive ancienne. Des millions d’années avant que l’homme n’invente l’agriculture et la fermentation, nos ancêtres frugivores auraient déjà été amateurs de fruits naturellement fermentés. Et le passage de la cime des arbres au sol avec le glanage de fruits tombés au sol aurait accéléré cette évolution.
Une étude publiée en 2014 rapporte qu’il y a environ 10 millions d’années, une mutation dans l’enzyme ADH4 (alcool-déshydrogénase) a permis à nos ancêtres de métaboliser l’éthanol 40 fois plus efficacement. Cette adaptation est survenue précisément chez nos ancêtres de la lignée des hominoïdes (ancêtre commun des humains, chimpanzés et gorilles mais pas chez les orangs-outans).
Pourquoi ? Parce que ceux-ci vivaient dans les hauteurs des arbres, où les fruits ne fermentent pas autant qu’au sol. Les ancêtres des chimpanzés et gorilles, eux, descendaient volontiers glaner les fruits tombés, plus susceptibles d’avoir fermenté sous l’action naturelle des levures. Avoir accès à de nombreux fruits fermentés tout en étant capables de dégrader l’alcool devenait alors un avantage évolutif, cette mutation devenant ainsi un « gain de fonction » permettant de trouver plus facilement de la nourriture riche en calories.
De la même manière que la mutation de l’ADH permettait aux primates de s’adapter pour améliorer leur régime alimentaire, l’être humain s’est aussi adapté plus récemment avec des mutations de l’autre enzyme, l’ALDH, qui dégrade l’acétaldéhyde (produit de dégradation toxique induisant une réaction d’intolérance à l’alcool avec des rougeurs faciales (un « flush »), tachycardie, nausée) en acétate (non toxique). Cette réaction d’intolérance à l’alcool serait censée nous protéger de la consommation d’alcool, une molécule qui avec son métabolite tout aussi toxique peut causer des dégâts sévères pour notre santé.
L’éthanol émis par les fruits fermentés ne se sent pas seulement de près. Il se diffuse à distance et servait probablement de signal olfactif aux primates pour localiser des ressources énergétiques riches en sucre.
L’éthanol est largement présent dans la nature, principalement par la fermentation des sucres des fruits par les levures. Une étude a rapporté les concentrations d’alcool de différents fruits pas encore tombés au sol mais dont certains étaient trop mûrs. La concentration varie selon les espèces et les environnements : des traces (0,02–0,9 %) ont été mesurées dans des fruits tempérés et subtropicaux comme le sorbier, le figuier sycomore ou le palmier dattier, tandis que dans les zones tropicales humides, particulièrement favorables à la fermentation, des teneurs beaucoup plus élevées (jusqu’à 10 % dans certains fruits de palmiers au Panama) ont été observées dans les fruits trop mûrs. Bien que la plupart des fruits présentent des niveaux faibles (<0,2 % en moyenne), leur consommation répétée peut représenter une source significative d’éthanol pour les animaux frugivores. Cette production naturelle d’alcool s’inscrit dans une relation complexe entre plantes, levures et animaux : les fruits offrent des sucres, les levures colonisent et fermentent, et les animaux attirés contribuent à disperser à la fois les graines et les spores de levures, suggérant une forme de « mutualisme écologique ».
De nombreuses anecdotes circulent sur des animaux « ivres » après avoir consommé des fruits fermentés… Éléphants et babouins en Afrique avec le marula, ou encore un élan en Suède coincé dans un arbre après avoir mangé des pommes fermentées. Toutefois, ces récits restent rarement validés scientifiquement : ni la teneur en éthanol des fruits, ni la présence d’alcool ou de ses métabolites chez les animaux n’ont été mesurées. On sait en revanche que certains mammifères, comme les singes verts introduits aux Caraïbes, n’hésitent pas à subtiliser et consommer les cocktails de fruits alcoolisés laissés sans surveillance par les touristes sur les plages de St Kitts.
Une étude rapporte que des chimpanzés de Bossou en Guinée utilisent des feuilles enroulées comme “éponges” pour boire de la sève de palme fermentée contenant jusqu’à 6 % d’éthanol.
Et ce n’est pas de la picole en cachette : ils boivent en groupe, se passent les feuilles, presque comme un apéritif communautaire. De quoi revisiter nos idées sur l’alcool et le lien social. L’activité de glanage des fruits fermentés au sol et alcoolisée devient alors une motivation sociale, déjà ! Nous n’avons rien inventé.
L’évolution nous a donné un foie capable de dégrader environ 7 g d’éthanol par heure. C’est peu face aux cocktails modernes. Autrefois, le volume d’éthanol ingéré était naturellement limité par ce que contenait… un estomac de singe rempli de fruits. Aujourd’hui, on peut boire des dizaines de grammes en quelques gorgées de boissons fortement alcoolisées. Un shot (un “baby”) de whisky ou de spiritueux à 40° et de seulement 3cl seulement contient 10g d’alcool !
Il n’est donc pas étonnant que nous devions faire face au problème de la consommation excessive d’alcool et de l’addiction à l’alcool qui ont de lourdes conséquences sur la santé et nos sociétés. On parle de « mismatch » et de « gueule de bois liée à l’évolution ». Les mutations de nos gènes codant ADH et ALDH n’ont pas encore permis à notre espèce de faire face aux conséquences néfastes de l’alcoolisation excessive.
Pour conclure, notre instinct de boire est ancien, mais les risques sont nouveaux.
Notre attrait pour l’alcool n’est pas une anomalie moderne. C’est un héritage évolutif, un bug de l’époque des forêts humides, où l’éthanol signifiait calories et survie. Mais dans un monde où les alcools sont concentrés, accessibles, omniprésents… ce qui était un avantage est devenu un facteur de risque pour notre santé et un enjeu de santé publique prioritaire.
Pour en savoir plus, le livre de Mickael Naassila « J’arrête de boire sans devenir chiant » aux éditions Solar.
Professeur des Universités, Directeur de l'unité INSERM UMR 1247 le Groupe de Recherche sur l'Alcool & les Pharmacodépendances (GRAP), Chercheur sur l'addiction à l'alcool depuis 1995. membre sénior à l'Institut Universitaire de France en 2025. Auteur de plus 140 articles scientifiques et des ouvrages "Alcool: plaisir ou souffrance" Le Muscadier et "J'arrête de boire sans devenir chiant", SOLAR. Président de la Société Française d'Alcoologie et d'Addictologie (SF2A), de la Société européenne de recherche biomédicale sur l'alcoolisme (ESBRA) et vice-président de la Société internationale de recherche biomédicale sur l'alcoolisme (ISBRA).
03.09.2025 à 12:37
Guy Théraulaz, Chercheur au CNRS au Centre de Recherches sur la Cognition Animale, Centre de Biologie Intégrative, Université de Toulouse
Pourquoi bâillons-nous quand quelqu’un bâille ? Comment des poissons au sein d’un banc coordonnent-ils leurs mouvements pour fuir un prédateur ? Comment une ola peut-elle se propager dans un stade, spectateur après spectateur ? Ces phénomènes, aussi quotidiens qu’énigmatiques, sont les manifestations visibles d’un mécanisme profond : la propagation de l’information sociale.
Dans les sociétés animales comme dans les foules humaines, la coordination des comportements individuels ne résulte pas d’ordres venus d’en haut, mais souvent de la capacité des individus à percevoir et à réagir à ce que font leurs voisins. Ces réactions en chaîne, parfois subtiles, donnent naissance à des comportements collectifs émergents, souvent d’une efficacité redoutable.
La contagion du bâillement illustre à merveille la capacité de certains comportements à se propager d’un individu à l’autre. Bien que d’apparence anodine, ce phénomène observé chez l’humain, les chimpanzés ou les lycaons – des chiens sauvages africains organisés en groupes très sociaux – est un formidable outil de coordination. Chez les lycaons (Lycaon pictus) les bâillements répétés précèdent souvent le départ en chasse. Plus il y a de bâillements, plus le groupe est susceptible de se mettre en mouvement. Chaque individu devient ainsi un maillon d’un mécanisme décisionnel distribué : pas besoin de leader, l’action émerge de l’imitation mutuelle.
Cette logique s’étend à d’autres espèces. Les abeilles géantes d’Asie (Apis dorsata), en réponse à des attaques de frelons, déclenchent une onde visuelle et sonore spectaculaire en redressant leur abdomen en cadence. Ce comportement, appelé « scintillement », agit comme une alarme collective synchronisée qui fait fuir les prédateurs.
Chez l’homme, la ola dans les stades illustre une dynamique similaire. Un petit groupe de supporters se lève, bras tendus, incitant leurs voisins à faire de même. Le mouvement, s’il est lancé dans un état collectif d’excitabilité intermédiaire (lorsque les spectateurs sont ni trop calmes, ni trop agités), va se propager comme une onde à travers l’arène. Chaque spectateur agit comme une cellule d’un système excitable, passant d’un état inactif à actif, puis réfractaire (temporairement inactif), comme le font les cellules cardiaques ou nerveuses.
Un cran au-dessus de la simple contagion, on trouve la synchronisation, où tous les individus d’un groupe s’alignent dans le temps. Les lucioles Photinus carolinus sont célèbres pour cela. Chaque mâle émet des éclairs lumineux pour attirer les femelles, mais lorsque la densité devient suffisante, ces flashes se synchronisent en bouffées collectives toutes les 12 secondes. Le mécanisme est simple : chaque luciole agit comme un oscillateur ajustant son rythme à celui des autres. Si elle perçoit un flash tôt dans son cycle, elle retarde le sien ; s’il est tard, elle l’avance.
C’est le même principe chez les applaudissements humains : au sortir d’un concert, les spectateurs finissent souvent par frapper des mains à l’unisson. Cela ne requiert ni chef d’orchestre ni consignes explicites. Les rythmes individuels s’alignent peu à peu, chaque personne agissant comme un métronome influencé par ses voisins. L’effet est d’autant plus fort que la fréquence des applaudissements diminue, facilitant la synchronisation.
La propagation de l’information sociale devient plus complexe encore lorsque les groupes sont en déplacement. Chez les poissons ou les oiseaux, un changement de direction initié par un seul individu peut entraîner tout le groupe. Dans ce cas-là, il n’y a pas de notion de « leader ».
Par exemple, chez le méné jaune (Notemigonus crysoleucas), une espèce de poissons d’eau douce originaire d’Amérique du Nord, un seul individu qui vire de bord peut déclencher une réaction en chaîne sans menace extérieure. Cette plasticité comportementale s’observe aussi chez les criquets pèlerins qui, même dans un environnement homogène, changent spontanément de sens de déplacement.
Des études fines que nous avons réalisées au Centre de Recherches sur la Cognition Animale à Toulouse, ont permis de caractériser ces interactions. Grâce à l’analyse de trajectoires de poissons filmés en laboratoire, on sait désormais que chaque individu ajuste sa direction en fonction d’un petit nombre de voisins proches. Il s’aligne plus avec ceux qu’il voit à l’avant ou sur les côtés, mais quasiment pas avec ceux qui sont derrière lui. Cette attention sélective allège la charge cognitive, tout en assurant une propagation rapide de l’information par effet domino.
Et si l’intensité de ces interactions sociales varie, c’est toute la forme du déplacement collectif qui change : dispersion, vortex circulaire (déplacements collectifs circulaires dans le lesquels ils nagent atour d’une zone centrale vide), banc polarisé (nage dans une même direction), ou nuée désorganisée. En modulant simplement l’attraction et l’alignement entre eux, les poissons peuvent adapter leurs comportements collectifs aux circonstances. Mieux encore, ils peuvent collectivement basculer dans un état critique où la moindre perturbation comme un brusque changement de luminosité ou un stress induit par la présence d’un prédateur suffit à déclencher une transformation rapide de tout le groupe. Cet état de « vigilance maximale » constitue une forme d’intelligence distribuée, prête à réagir avant même que tous n’aient perçu le danger.
L’information ne passe pas toujours par l’observation directe. Chez les insectes sociaux comme les fourmis ou les termites, elle se propage souvent à travers l’environnement via des traces laissées par les individus. C’est ce que le biologiste Pierre-Paul Grassé a appelé la stigmergie. Lorsque qu’une fourmi découvre une source de nourriture, elle dépose une piste de phéromones sur le sol en revenant au nid. D’autres fourmis suivent cette piste, renforcent la trace, et un trafic auto-renforcé se met en place.
Ce mécanisme simple permet des décisions collectives remarquables. Par exemple, face à deux sources de sucre de qualités différentes, les fourmis de l’espèce Lasius niger privilégient la plus riche, sans avoir besoin de la comparer explicitement. Le marquage chimique varie en fonction de la qualité perçue : plus le sucre est concentré, plus la piste est renforcée.
Mais ce système peut aussi piéger la colonie. Si une piste est bien établie vers une source médiocre, l’introduction ultérieure d’une meilleure source ne suffit pas à faire changer le groupe. La mémoire chimique collective devient un verrou comportemental. La même logique s’applique dans le choix du chemin le plus court entre un nid et une source ; les fourmis « choisissent » par renforcement différentiel, amplifiant l’option dont les signaux croissent le plus vite, en l’occurrence, le chemin le plus rapide à parcourir.
De la danse des lucioles aux pistes des fourmis, des bancs de poissons aux foules, la propagation de l’information sociale repose toujours sur le même principe fondamental. Chaque individu, avec ses perceptions limitées et ses règles simples, ajuste son comportement à celui des autres. De ces ajustements locaux émergent des décisions collectives, des formes de coordination, et parfois même des comportements intelligents sans chef ni plan préconçu. Ces mécanismes, longtemps réservés aux sciences naturelles, intéressent désormais les urbanistes, les concepteurs de systèmes interactifs, ou les spécialistes de l’intelligence artificielle. Car comprendre comment l’information sociale circule, se filtre, s’amplifie ou s’éteint dans un groupe, c’est aussi poser les bases d’une société plus réactive, plus juste et plus coopérative.
Cet article est proposé en partenariat avec le colloque « Les propagations, un nouveau paradigme pour les sciences sociales ? » (à Cerisy (Manche), du 25 juillet au 31 juillet 2025).
Guy Théraulaz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.09.2025 à 12:33
Thomas Garcia-Fermet, Doctorant en Préhistoire et paléoenvironnements quaternaires, spécialité paléontologie des oiseaux, Université de Perpignan Via Domitia
Pour l’humanité du XXIe siècle, le pigeon peut apparaître comme le plus anodin, voire indésirable, des volatiles. Mais Homo sapiens est loin d’être la première espèce humaine à avoir croisé cet oiseau. Au cours du Pléistocène, pigeons et corvidés partagèrent les abris creusés dans les falaises avec Néandertal, qui les ajouta occasionnellement à son menu.
Nous sommes au Pléistocène supérieur (entre 129 000 et 11 700 ans avant le présent), à une époque où l’Europe est notamment peuplée par les Néandertaliens. Les terres du Vieux Continent sont arpentées par tout un cortège de grands mammifères emblématiques parmi lesquels mammouths, rhinocéros, chevaux, bisons, rennes, ours, lions ou hyènes. Si cette mégafaune popularisée à juste titre occupe une place de choix dans l’imaginaire du grand public, elle fait de l’ombre aux nombreux vertébrés de taille plus modeste qui vivent à ses côtés, tels que les lapins, les rongeurs, les amphibiens ou les oiseaux.
Depuis plusieurs centaines de millénaires déjà, pigeons et corvidés abondent dans les régions de l’Europe méditerranéenne, occupant les cavités creusées dans les vastes falaises calcaires. De récentes études démontrent que ces oiseaux ont parfois été consommés par leurs voisins néandertaliens.
Si la chasse aux moyens et grands mammifères par Néandertal est une idée établie depuis longtemps, l’intégration de petites proies agiles (lapins, oiseaux…) dans le régime alimentaire des hominines était alors associée au Paléolithique supérieur (approximativement 40 000 à 12 000 ans avant le présent) et à Homo sapiens, en réponse à une rapide croissance démographique et permise par le développement d’une technologie adéquate.
Par conséquent, les restes de petits vertébrés trouvés dans les niveaux d’occupation néandertaliens (Paléolithique moyen) furent les grands oubliés des études archéozoologiques. Notre regard a changé au cours des deux dernières décennies, lorsque de nouvelles études ont démontré la consommation de petits animaux – lapins, tortues, mollusques, oiseaux – par les Néandertaliens et qu’elles ont illustré toute la plasticité du régime alimentaire de ces derniers. L’exploitation des oiseaux, non systématique et dont la fréquence reste à préciser, semble couvrir une partie importante de l’aire de répartition géographique de Néandertal – de la péninsule Ibérique au Proche-Orient – et s’étendre sur une large période chronologique. Une étude parue en 2023 établit qu’elle s’étire jusqu’aux côtes méditerranéennes du sud de la France, où un remarquable gisement a livré des traces d’exploitation de plusieurs espèces par les Néandertaliens.
La grotte de la Crouzade à Gruissan (Aude), vaste cavité creusée dans le massif calcaire de la Clape et située à environ 3 kilomètres de l’actuel rivage méditerranéen, est un site exceptionnel ayant enregistré plusieurs niveaux d’occupations néandertaliennes (Paléolithique moyen) et d’Homo sapiens (Paléolithique supérieur). Les humains préhistoriques ont fréquenté la cavité durant des périodes plus ou moins longues, en alternance avec d’autres animaux, comme les ours ou les hyènes.
Le remplissage sédimentaire de la grotte a livré des milliers d’ossements d’oiseaux, attribués principalement au pigeon biset (Columba livia), au chocard à bec jaune (Pyrrhocorax graculus) et au crave à bec rouge (P. pyrrhocorax). Il s’agit d’espèces grégaires, rupestres, dont les vastes colonies nichaient très probablement dans les cavités voisines de la grotte.
L’analyse taphonomique (étude des processus qui interviennent entre la mort d’un organisme et la fouille) des restes aviens provenant des couches du Paléolithique moyen (déposées il y a environ 40 000 ans) prouve qu’une grande partie de ces oiseaux a été consommée par des rapaces comme le grand-duc d’Europe (Bubo bubo) et par des carnivores de taille moyenne (renard ou blaireau). En effet, de nombreux spécimens arborent des perforations, bords crénelés et traces de digestion.
En outre, l’examen microscopique des ossements d’oiseaux révèle des traces d’activités humaines bien plus rares (moins de 2 % de restes affectés). On recense, tout d’abord, des traces de chauffe localisées sur les extrémités articulaires des os ou sur les bords de fracture sous la forme de zones sombres contrastant avec la patine crème du reste du fossile. Elles attestent la cuisson de carcasses partielles préalablement désarticulées. À titre d’exemple, des traces de chauffe relevées sur une extrémité articulaire de l’os coracoïde ont permis de conclure à la cuisson d’une carcasse ou d’une portion de carcasse dont les ailes étaient détachées.
On observe ensuite des stries de découpe, qui indiquent que des outils lithiques (notamment en silex) ont été employés au moins occasionnellement par les Néandertaliens lors du traitement des carcasses. Enfin, quelques altérations observées sur les humérus pourraient correspondre à la désarticulation du coude par surextension forcée du membre antérieur, mais l’origine de ces marques demeure incertaine.
À la Crouzade, les traces anthropiques se concentrent sur les trois espèces les plus abondantes : le pigeon biset, le chocard et le crave. Les oiseaux étrangers aux grottes (canards, perdrix…) ne portent pas de modifications anthropiques et semblent avoir été introduits dans la cavité par d’autres prédateurs.
Le cas de la Crouzade confirme que l’exploitation des oiseaux au Paléolithique moyen n’est pas une exception. Toutefois, il suggère que les oiseaux jouaient un rôle secondaire dans l’alimentation des Néandertaliens, complémentant l’apport en protéines assuré par les grands mammifères. Par ailleurs, il est possible que l’implication de Néandertal dans l’accumulation osseuse soit sous-estimée, car le traitement des carcasses de petits vertébrés ne laisse pas systématiquement de traces sur les os : les activités de boucherie peuvent s’effectuer à mains nues, sans l’aide d’outils.
Cette étude montre que les Néandertaliens, à l’instar des autres prédateurs qui ont occupé sporadiquement le site, ont principalement exploité les ressources aviennes à l’échelle locale. Est-ce le fruit d’une sélection ? Dans ce cas précis, il est difficile de le démontrer : la concentration des traces anthropiques sur les pigeons et corvidés peut tout autant traduire une chasse opportuniste (voire un charognage) conditionnée en partie par l’abondance relative des proies dans le voisinage immédiat des humains préhistoriques. La littérature scientifique démontre, par ailleurs, que le spectre des oiseaux consommés peut varier d’un site à l’autre, allant du petit passereau au grand rapace, illustrant la capacité des Néandertaliens de tirer profit d’une grande diversité d’habitats et de ressources.
À la Crouzade, la localisation de certaines stries sur des éléments recouverts d’une chair relativement abondante atteste l’exploitation des oiseaux dans un but alimentaire. On a notamment pu observer des stries de décarnisation sur le fémur, mais aussi sur le sternum, témoignant de la récupération des muscles pectoraux (l’équivalent des « blancs de poulet »). Les stries situées sous l’extrémité articulaire de la scapula pourraient correspondre à la désarticulation de l’aile.
Quelques stries affectant les corvidés sont relevées sur des os peu charnus comme l’ulna ou le carpométacarpe. Leur emplacement est compatible avec les stries expérimentales produites par certains chercheurs lors du détachement des rémiges. Ces stries permettent d’émettre l’hypothèse que les corvidés n’ont pas seulement été exploités en tant que ressources alimentaires, mais également comme sources de matières premières.
La récupération des plumes à des fins culturelles est, d’ailleurs, signalée dans d’autres sites du Paléolithique moyen comme, [sur la péninsule Ibérique], les grottes de Gibraltar (Royaume-Uni). Préoccupations esthétiques, symboliques, utilitaires ? La fonction exacte de ces matériaux demeure mystérieuse. On sait que Néandertal a parfois collecté les serres de grands rapaces pour les convertir en parures. Une étude en cours suggère, d’ailleurs, que ce fut le cas dans un gisement audois voisin de celui de la Crouzade.
Loin de l’image de la brute préoccupée uniquement par une survie difficile, Néandertal s’affiche comme un redoutable prédateur, capable d’exploiter une grande diversité de biotopes, et également comme un être raffiné, habile, dont la créativité rivalise avec celle de son cousin et successeur, Homo sapiens.
Thomas Garcia-Fermet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.09.2025 à 12:26
Olivier Adam, Bioacousticien, Sorbonne Université
Olivier Adam, informaticien et professeur de traitement du signal à Sorbonne Université, a découvert les sons émis par les cétacés, lors d’une mission à Gibraltar, en 2003. C’était le début d’une passion au long cours. Il revient tout juste de Madagascar, où ses collègues et lui étudient les baleines à bosse. À cette occasion, il a raconté à Elsa Couderc, cheffe de rubrique Sciences et technologies à « The Conversation France », comment on apprend à mieux connaître ces animaux grâce aux surprenantes ondes sonores qu’ils émettent en permanence. Bienvenue dans un monde qui est tout sauf silencieux.
The Conversation : Vous êtes informaticien, à l’origine spécialiste d’acoustique et de traitement du signal. En entendant ces mots, on ne pense pas immédiatement à la vie sous-marine. Comment en êtes-vous venu à étudier les cétacés ?
Olivier Adam : Jusqu’en 2000, j’étudiais les pathologies du système auditif chez l’humain. On avait développé des outils informatiques permettant d’évaluer le fonctionnement de notre audition.
Puis, un jour, un collègue biologiste est revenu d’une conférence aux États-Unis, où les chercheurs avaient déjà commencé à collecter des sons de cétacés et à les analyser. Ce collègue, Christophe Guinet, voulait savoir à quelles profondeurs les cachalots descendaient au cours de leurs grandes plongées. Or, à l’époque, la seule manière de suivre ces animaux, c’était d’enregistrer leurs émissions sonores grâce à des hydrophones que l’on déployait en surface. Et il m’a demandé si je pouvais l’accompagner sur une mission : « On va faire des observations de cachalots en mai à Gibraltar, est-ce que tu veux venir ? » J’ai accepté. Là-bas, j’ai vu mon premier cachalot. Je l’ai enregistré et je ne m’en suis jamais remis. C’est quelque chose que je n’oublierai jamais. Ça a été un réel tournant pour moi, d’un point de vue personnel et scientifique.
T. C. : Qu’est-ce que vous avez entendu ?
O. A. : Ce sont des sons complètement improbables dans notre oreille humaine, très différents des sons qu’on entend dans notre vie quotidienne. C’est dingue, parce que c’est un tout autre monde, un monde sonore auquel on n’a pas accès d’habitude, qu’on ne connaît pas. Et il est tout sauf silencieux.
Cette première fois à Gibraltar, le cachalot est resté à la surface, immobile, en train de respirer intensément pendant cinq ou dix minutes, puis il fait un « canard » [l’animal lève la nageoire caudale pour débuter sa plongée] et, à partir de là, pour moi qui ne peux pas descendre physiquement à ces profondeurs abyssales, la seule façon de le suivre, c’était en l’écoutant (à l’époque, les balises n’existaient pas). Ce que j’ai fait, totalement immobile sur le bateau, mon casque audio vissé sur la tête, pendant les quarante-cinq minutes de son extraordinaire plongée. Puis il est remonté à la surface, et ce cycle a recommencé par une phase de respiration intense avant de repartir en plongée. Grâce aux enregistrements sonores, on pouvait reconstruire son activité, c’est-à-dire sa prospection de la masse d’eau devant lui à la recherche de nourriture, sa chasse dans la pénombre des profondeurs et les moments où il avait trouvé à manger. C’était saisissant et spectaculaire.
Il faut bien comprendre qu’en écoutant ces cétacés, on entre complètement dans leur monde, dans leur intimité. C’est ça qui est dingue : dès qu’ils descendent à quelques mètres, ils disparaissent, et la seule façon de rester en contact, c’est grâce à l’acoustique. On arrive à les accompagner et à les suivre, sans même avoir à plonger avec eux !
T. C. : Que pouvez-vous déduire des sons que vous enregistrez ?
O. A. : La première information qu’on en déduit est que si on les entend, c’est évidemment qu’ils sont présents. C’est très important, car une grande partie des cétacés est très discrète et ne s’approche pas des bateaux. Donc on ne les voit pas même quand ils viennent à la surface respirer. Par contre, on peut les entendre, et c’est cette détection de leurs émissions sonores qui témoigne de leur présence. Ensuite, on peut essayer de les localiser, et dire s’ils sont à proximité ou éloignés. Cette information est cruciale quand on veut décrire la fréquentation d’une zone d’intérêt, comme une aire marine protégée, ou les effets potentiels d’une activité anthropique en mer.
Et puis il y a d’autres analyses que l’on peut mener à partir des enregistrements de leurs émissions sonores. On peut s’intéresser à leur langage, à leurs comportements, et finalement à leur société. Comment vivent-ils ensemble ? Quelles sont leurs interactions ? Ce sont de très belles questions scientifiques, tout à fait d’actualité aujourd’hui !
T. C. : Comment les cétacés perçoivent-ils le monde ?
O. A. : Ils ont les mêmes sens que nous. La vue, par exemple, car même si on s’imagine qu’il fait noir dans les grandes profondeurs, avec la bioluminescence [émanant de céphalopodes comme le calmar diaphane, ou de crevettes], il y a quand même quelques repères visuels.
De plus, près de la surface, les cétacés restent en contact et évoluent à proximité les uns des autres – c’est le sens du toucher. C’est même étonnant de les voir ainsi alors qu’ils ont l’immensité de l’océan à eux. Il faut croire que le vivre-ensemble est très important dans leur société.
Ensuite, il y a aussi le goût et l’odorat, mais probablement moins développés que pour les mammifères terrestres.
Pour la « perception magnétique », c’est plus compliqué. Il s’agit d’une hypothèse qui a été souvent avancée pour les grandes baleines afin d’expliquer leurs routes migratoires, mais sans que ce soit totalement démontré. Par contre, il y a eu des recherches sur les dauphins qui ont montré leur sensibilité au champ magnétique.
Mais il est clair que l’audition est fondamentale pour les cétacés. Ils ne peuvent tout simplement pas vivre avec un système auditif défaillant. En plus, les odontocètes [les cétacés à dents, comme les dauphins et les orques] ont une faculté supplémentaire : l’écholocalisation. Ils vont émettre des sons courts pour trouver leurs proies ou pour avoir des informations sur leur environnement immédiat. L’écholocalisation consiste à émettre des « clics » sonores, et à interpréter leurs rebonds acoustiques sur les obstacles autour d’eux – que ce soient des rochers, des bateaux, ou d’autres animaux. Grâce à ces échos, ils peuvent se repérer dans l’espace, savoir ce qu’il y a autour d’eux, si c’est immobile ou en mouvement…
À lire aussi : À la découverte de l’univers sensoriel des dauphins et de leurs trois « super-sens »
Aujourd’hui, on essaye de comprendre si cette image acoustique leur apporte d’autres informations, par exemple, une texture, une sensation. Personnellement, je ne pense pas qu’il faille réduire l’écholocalisation à l’obtention d’une image mentale. Ce que je dis est certes très spéculatif, car je n’ai pas encore de preuve scientifique de cela, mais c’est mon intuition parce que les odontocètes émettent des clics en permanence, même lorsqu’ils sont assez proches pour voir complètement ce qu’ils sont en train d’écholocaliser. Pourquoi feraient-ils cela s’ils ont déjà un visuel très clair de ce qu’ils ont devant eux ? Du coup, je suis convaincu que la perception et l’interprétation qu’ils ont des échos leur procurent des informations et des ressentis qui vont bien au-delà d’une simple image.
T. C. : Est-ce que vous pouvez reconnaître ces animaux à partir de leurs clics ?
O. A. : Les cachalots, oui – ils font des sons très spécifiques, très forts et souvent avec des rythmes particuliers. Ils se distinguent nettement des 90 autres espèces de cétacés.
Mais il faut comprendre que, si on connaît bien certaines de ces espèces car on les observe régulièrement, comme les baleines à bosse par exemple, il y en a d’autres que l’on ne voit presque jamais dans leur environnement naturel et que l’on découvre parce qu’un jour, un individu s’échoue sur une plage. Cela a été le cas, par exemple, au nord-ouest de Madagascar où un cachalot pygmée s’est échoué. Il mesurait moins de 4 mètres, comparé aux 15-18 mètres du grand cachalot, et on ne savait même pas que cette espèce était présente dans les eaux malgaches. En fait, il s’agit d’une espèce très furtive, donc très difficile à observer dans le milieu naturel. C’est la raison pour laquelle on a très peu d’information, que ce soit sur son mode de vie, son groupe social et sa production sonore. Donc, clairement, on ne connaît pas les émissions sonores de toutes les espèces de cétacés !
T. C. : Le son peut servir à plein de choses aux cétacés, et, comme vous le disiez, à avoir une vie sociale. On sait notamment que différents clans d’une même espèce ont des manières de s’exprimer différentes, n’ont pas le même langage. Comment apprend-on ce genre de choses ?
O. A. : Sur le langage, les premiers gros travaux datent des années 1960-1970 avec des études réalisées sur des dauphins en captivité. Les scientifiques essayaient d’évaluer leur intelligence, notamment en parlant avec eux, que ce soit en anglais ou grâce à des sifflements.
Quand on a voulu faire ces expérimentations dans le milieu naturel, cela a été beaucoup plus compliqué. Aujourd’hui, il y a des scientifiques, comme Denise Herzing ou Diana Reiss à New York, qui mènent ce type de recherche sur la structure sociétale des dauphins dans leur environnement naturel. Elles basent leurs travaux sur des observations visuelles et acoustiques, et c’est très compliqué du fait de la faible disponibilité des cétacés. J’ai moi-même essayé de travailler sur les dauphins en Guadeloupe et à La Réunion, mais cela demande de la patience et de l’obstination pour leur proposer une expérimentation, car il est très rare qu’ils restent suffisamment longtemps avec nous avant de repartir vivre leur vie.
En ce qui concerne ce qu’on pourrait appeler les « dialectes » de populations des baleines à bosse : les biologistes comparent leurs vocalisations depuis les années 1970. On a noté que leurs chants se transmettaient de génération en génération. Aussi, pour les groupes qui sont dans des hémisphères différents et, donc, qui ne peuvent pas s’entendre, elles vont émettre des vocalisations différentes. C’est pour cela qu’on parle de « dialectes régionaux ».
T. C. : Donc les baleines à bosse ne « parlent » pas le même dialecte, alors qu’elles possèdent toutes les mêmes capacités physiques pour produire des sons.
O. A. : Tout à fait. J’ai travaillé avec la chercheuse américaine Joy Reidenberg sur l’anatomie de leur système respiratoire, et nous avons décrit les différents éléments de leur générateur vocal. Et oui, c’est le même pour toutes les baleines à bosse, mâles et femelles. Même si, techniquement, il n’y a que les mâles qui chantent – les femelles vocalisent aussi, mais elles ne répètent pas des phrases plusieurs fois de suite, donc on ne parle pas de chant pour elles, mais de « sons sociaux ».
Concernant les dialectes, comme je le disais tout à l’heure, il est normal qu’elles ne partagent pas les mêmes vocalisations avec des baleines qui ne sont pas de la même population.
Par contre, il y a des exceptions à cette règle : on a remarqué quelques vocalisations qu’elles ont toutes en commun, par exemple des « woop » et des sons pulsés. Et ça, on ne sait pas pourquoi. Est-ce que ce sont les plus vieilles vocalisations de leur répertoire ? ou les plus faciles à émettre ? ou les plus intuitives ?
La chercheuse américaine Michelle Fournet [Université du New Hampshire] s’est intéressée à cette question. Elle a postulé que le « woop » correspondait à une sorte de signalement, comme un « bonjour ». Elle a testé son hypothèse en diffusant ce son dans l’eau, et il y a eu plein de baleines à proximité, qui ont répondu, à leur tour, en émettant cette même vocalisation. C’est intéressant ! On est aujourd’hui dans quelque chose d’entièrement spéculatif, mais c’est une nouvelle thématique qui est de plus en plus à la mode, le « playback ».
Avec mes collègues d[e l’Université d’]’Orsay et du Cerema [Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement, du ministère de la transition écologique], je la pratique depuis deux ans maintenant. On enregistre des sons et, pour certains, on pense qu’ils ont une signification. On essaye comme cela d’avancer dans le dictionnaire des cétacés. C’est passionnant, mais pas très simple, car il faut pouvoir observer très finement les réactions des cétacés au moment même de la diffusion des sons que l’on veut tester.
Aussi, pour ne rien rater, nous sommes obligés de combiner des drones aériens, pour observer ce que les animaux font à la surface, et des balises électroniques que l’on ventouse sur leur dos et qui nous informent sur leurs mouvements quand on perd le contact avec eux en surface parce qu’ils descendent en plongée. Il s’agit d’expérimentations difficiles à mettre en œuvre et longues dans leur durée, mais qui sont nécessaires pour enregistrer leurs réactions et comprendre les effets de tel ou tel son.
T. C. : Est-ce qu’avec le « playback », le but est de créer des « dictionnaires » dans lesquels on aurait une correspondance entre un mot humain et un son animal ? Quel est le degré d’anthropomorphisme quand on parle de langage animal ?
O. A. : C’est compliqué, en fait. Dans les années 1970, on était partis sur l’idée « un son égale un mot » : on essayait de trouver à quel mot correspondait chaque son émis.
Aujourd’hui, on a un peu changé de concept. On regarde plutôt des phrases, parce que les baleines à bosse émettent leurs vocalisations dans un certain ordre, en séquences temporelles parfaitement organisées dans le temps, et elles les répètent dans ce même ordre.
Aussi, on s’interroge sur cette structure temporelle du fait que les vocalisations ne sont pas émises de façon aléatoire. On se demande également : « Si on enlève une vocalisation, est-ce que ça change la phrase, ou pas ? » C’est comme si on enlevait une note dans une partition de musique : est-ce que cela change complètement la mélodie ? Et probablement que, comme pour certaines notes, des vocalisations pourraient avoir un rôle plus important que d’autres dans la syntaxe mélodique du chant. Ce que je veux dire, c’est que peut-être que nous ne devrions pas considérer les vocalisations toutes de la même façon.
Et on pourrait aussi envisager une combinaison des deux, c’est-à-dire une signification particulière pour une vocalisation et une autre liée à l’ensemble de la phrase, c’est-à-dire finalement des choses plus complexes à imaginer et à déchiffrer.
Les scientifiques s’intéressent aussi à la communication interespèce, par exemple en diffusant des sons d’orques à d’autres espèces de cétacés. C’est ce que fait très bien la chercheuse Charlotte Curé [Cerema]. Et c’est super intéressant, car leurs réactions ne sont pas les mêmes ! Par exemple, les cachalots ont arrêté leur plongée pour remonter illico à la surface et voir ce qui se passait. Les globicéphales, qui sont de grands dauphins avec une tête arrondie et qui vivent toujours en grands groupes de plusieurs dizaines d’individus, quant à eux, sont venus au bateau… probablement pour vérifier s’il y avait à manger, car ils partagent les mêmes proies que les orques. Par contre, pour les baleines à bosse, c’était le contraire : elles se sont éloignées discrètement, sûrement pour se protéger de potentielles attaques…
Voilà où on en est aujourd’hui… Ces questions de langage, ça va prendre du temps.
T. C. : On comprend que ce sujet n’est pas facile. Quelles seraient les prochaines étapes pour avancer sur le langage des baleines ?
O. A. : Il y a plein de questions qui ne sont absolument pas résolues aujourd’hui ! Par exemple, on n’a toujours pas réussi à extraire la signature acoustique individuelle chez les baleines à bosse. Cela signifie qu’on ne sait pas reconnaître un individu à partir des sons qu’il émet. Pour ma part, je suis convaincu qu’elle existe et que ces cétacés s’identifient entre eux uniquement à partir de leurs émissions sonores !
Autre chose qu’on ne sait toujours pas, c’est s’il y a une « hiérarchie vocale » ? À partir du moment où on parle de groupes sociaux, on peut s’attendre à une certaine organisation avec des « leaders » ou des « influenceurs » – on pourrait imaginer que certains individus sont plus loquaces et imposent leurs vocalisations et leurs décisions. Si oui, qui sont-ils ? Sont-ils les plus vieux, les plus imposants, les plus rapides, ou tout le contraire ?
Pour les cachalots, on sait que c’est le cas : il y a des communautés d’une douzaine de femelles qui vivent ensemble toute leur vie. Ce sont des clans. Ces individus partagent des sons, s’alimentent dans les mêmes zones et élèvent leurs jeunes ensemble. Les rôles sociaux sont partagés. On distingue la matriarche, qui est la femelle plus vieille. On repère aussi les nounous qui s’occupent de tous les petits lorsque les autres adultes plongent pour s’alimenter.
Chez les orques, la structure sociale est différente. La mère garde ses petits tout au long de sa vie. Elle va leur transmettre son savoir, c’est-à-dire comment trouver les proies, les meilleures techniques de chasse et leur répertoire vocal. Cet apprentissage de génération en génération est juste exceptionnel. Il est essentiel pour leur survie et constitue la culture du groupe.
Chez les baleines à bosse en revanche, la société est plus ouverte. Les relations entre les adultes sont très souples, notamment pendant la période de reproduction, au cours de laquelle les mâles se reproduisent avec plusieurs femelles, et inversement. Par contre, il existe un lien particulièrement fort : celui qui relie la mère à son baleineau. Au cours de sa première année, ce dernier est totalement dépendant de sa mère, pour l’alimentation, pour les déplacements, pour sa protection.
T. C. : Est-ce que les baleineaux « babillent » ?
O. A. : Oui, tout à fait. Les sons des baleineaux sont moins puissants, moins construits, moins cohérents – c’est assez mignon ! Nous avons montré qu’ils émettent des sons dès la première semaine après leur naissance – comme nos bébés.
En plus, ils naissent là où les mâles chantent, ce qui laisse croire que les baleineaux ont entendu ces chants puissants alors qu’ils étaient encore dans le ventre de leur mère.
Puis, au cours de leurs premières semaines de vie, ils vont apprendre à contrôler leur générateur vocal pour imiter les vocalisations des aînés et les reproduire tout au long de leur vie.
Une de nos étudiants, Maevatiana Ratsimbazafindranahaka, qui a soutenu sa thèse en novembre 2023, a montré que les baleineaux réclament du lait à leur mère. Un peu comme s’ils chouinaient quand ils ont faim !
T. C. : Vous travaillez beaucoup sur les baleines à bosse à Madagascar… Encore cet été, vous étiez là-bas, et c’est de là que viennent les photos qui illustrent cet entretien. Comment ont évolué les choses depuis votre première mission sur l’île en 2007 ?
O. A. : Quand j’ai commencé à travailler sur les cétacés au début des années 2000, personne en France ne s’intéressait à leurs émissions sonores. En plus, le matériel pour enregistrer des sons en mer coûtait cher, donc il était difficilement accessible pour débuter.
C’est finalement auprès d’un laboratoire américain que j’ai pu récupérer mes premières données, mais cela a été aussi ma première déception : elles n’étaient pas d’assez bonne qualité pour être utilisées d’un point de vue scientifique. Il faut se rappeler que, contrairement à aujourd’hui, à l’époque, les gens ne partageaient pas leurs données très facilement.
Donc la seule solution était d’aller en mer pour faire moi-même mes enregistrements. C’était nouveau pour moi – j’étais très surpris que des biologistes passent des mois entiers au milieu de nulle part pour aller enregistrer des espèces non humaines, alors que moi, quand j’ai fait ma thèse en informatique, toutes les données que j’utilisais étaient accessibles très facilement sur Internet, il suffisait de les télécharger sur un serveur. En commençant ma recherche sur les cétacés et en travaillant avec des biologistes, je me suis rendu compte du temps, de l’énergie et de la patience qu’il faut pour observer le vivant.
Je suis arrivé à Madagascar en 2007. Je n’avais jamais vu de baleines à bosse, je ne les avais jamais écoutées. Et là, ça a été un choc. Déjà parce que je me suis retrouvé dans une barque de six mètres de long, totalement ouverte aux intempéries, avec un petit moteur de 60 CV, et sans gilets de sauvetage… Au niveau sécurité, il faut reconnaître qu’on n’était pas complètement au point ! On allait en mer pour écouter des chants des journées entières. Je déployais un simple hydrophone du bateau et, pendant des heures, on les écoutait en direct. C’était complètement fou toute l’énergie acoustique qu’elles envoyaient à travers l’océan !
Par la suite, j’ai continué de travailler avec l’association Cétamada. Avec eux, on a fait des choses exceptionnelles. On a installé la première station acoustique pour enregistrer les chants tout au long de la saison. On a prélevé des échantillons de peau pour constituer la plus grande base génétique de l’océan Indien. On s’est aussi intéressés aux habitats, à la distribution géographique de ces baleines. On a ainsi montré qu’elles sont très mobiles pendant la période de reproduction, en se déplaçant dans tout l’océan Indien. Au cours d’une même saison, ce sont les mêmes individus que l’on voit à La Réunion, à Madagascar, aux Comores, et jusqu’à la côte africaine. Ce sont de vrais nomades. Et maintenant, comme je le disais précédemment, on travaille sur le playback.
T. C. : Aujourd’hui, vos bases de données acoustiques sont agrémentées d’autres types de données ?
O. A. : Oui, tout à fait, l’acoustique est une des méthodes. J’étais focalisé sur l’acoustique au début de ma carrière, je lui suis toujours, mais, maintenant, j’utilise aussi d’autres outils d’observation pour avoir une description la plus complète possible. Car il faut bien comprendre que chaque méthode a ses avantages et ses inconvénients. Elles sont complémentaires. Donc je recommande vraiment de ne pas hésiter à combiner les observations visuelles faites par des observateurs à bord des bateaux ou en utilisant un drone aérien, l’acoustique évidemment, et de faire aussi des prélèvements d’eau pour faire de l’ADN environnemental.
Mais il faut noter que toutes ces données n’ont pas ce caractère instantané qui nous permet de suivre, même a posteriori, ce que font les cétacés. Du coup, aujourd’hui, nous déployons aussi des balises électroniques que l’on ventouse sur le dos des cétacés. Elles sont équipées d’une caméra, d’un hydrophone et de différents capteurs qui nous permettent de savoir exactement ce qu’elles ont fait durant leurs plongées.
Malheureusement, ces balises ne restent attachées que quelques heures avant de se détacher par elle-même généralement du fait de la force hydrodynamique qui s’exerce quand la baleine se déplace. Connaître son activité pendant un temps si court est assez frustrant quand on sait qu’une baleine vit cent ans ! Idéalement, on aimerait bien suivre sa vie sur plusieurs années…
Quoi qu’il en soit, les bases de données ont augmenté d’une façon incroyable. Au milieu des années 2010, il y a eu un réel basculement : on est passé d’une ère où on avait très peu de données à une ère où on en avait trop – c’est le big data des cétacés. Les hydrophones et les drones sont très accessibles, les smartphones s’emportent partout… on peut capter des données 24 heures sur 24, 7 jours sur 7.
Notre communauté scientifique s’organise pour développer des méthodes afin d’analyser les sons qu’on a mesurés et de ne pas les mettre à la poubelle faute de temps pour les analyser. Par exemple, je travaille aujourd’hui avec une doctorante, Lucie Jean-Labadye, informaticienne elle aussi, qui applique des méthodes d’intelligence artificielle et d’apprentissage profonds pour interpréter les enregistrements sous-marins.
T. C. : Justement, à quoi sert l’IA dans le cadre de vos travaux ?
O. A. : À deux choses. Tout d’abord, il s’agit de traiter ces grandes bases de données. En fait, pour la détection et la classification des événements sonores, les programmes que l’on a développés depuis les années 2000 étaient basés sur l’extraction de quelques caractéristiques acoustiques, comme les fréquences et les durées. Cela était suffisant lorsqu’on s’intéressait à certaines vocalisations, mais leurs performances se dégradaient avec la forte augmentation de la taille des bases de données. Pour faire simple, ces méthodes généralisent mal.
Or, aujourd’hui, on a besoin de méthodes qui permettent de traiter des grandes bases de données. L’IA nous aide à traiter massivement tous les enregistrements acoustiques, et donc à analyser les paysages sonores.
La deuxième raison de s’intéresser à l’IA, c’est que l’on peut se focaliser sur les détails. Pour classifier des vocalisations de baleines, il faut se fixer des critères et des seuils. Or cela s’avère vite très compliqué et fastidieux. Et souvent, au final, cela ne nous aide pas à mieux comprendre l’information, car on ne sait pas trop où elle est cachée.
Avec l’IA, on peut tester plein de critères différents et les appliquer à des centaines d’heures d’enregistrement. Cela permet de tester différentes solutions, de faire les choses plus rapidement et de mieux comprendre la signification de leur langage.
T. C. : Aujourd’hui, vous travaillez aussi sur les « paysages sonores sous-marins ». Qu’est-ce que c’est ? Pourquoi étudier ces paysages sonores ?
O. A. : Il est important de replacer ce que font les cétacés dans le contexte environnemental dans lequel ils évoluent. En particulier, on sait que les activités humaines ont des influences directes sur les écosystèmes marins. Et toutes nos activités sont bruyantes.
Donc, travailler sur les paysages sonores revient à savoir ce qui relève de notre présence en mer, à nous les humains, et de pouvoir caractériser cette pollution sonore. L’idée est donc de classer les événements sonores en trois catégories : la « biophonie » incluant les sons du vivant comme les chants de baleines, par exemple ; la « géophonie » qui rassemblent les sons de l’environnement, tels que la pluie ; et l’« anthropophonie », qui correspond à tous les sons issus des activités humaines.
Les enregistrements acoustiques nous donnent principalement les niveaux sonores et les bandes fréquentielles. En fonction des types de sons et de leur durée d’exposition, on peut en déduire les risques encourus par les cétacés. L’objectif est clairement d’avancer sur la conservation de l’océan et la protection des cétacés. Il est essentiel de tout faire pour mieux considérer l’océan et ses habitants. Et de soutenir des régulations de nos activités économiques pour protéger efficacement le milieu marin. C’est urgent, aujourd’hui.
Olivier Adam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.09.2025 à 15:52
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Il est impossible de purement et simplement ignorer la propagation sans cesse plus rapide des armes létales autonomes et de l’intelligence artificielle sur les théâtres de guerre ; mais il serait éminemment dangereux de confier la prise de décision à la technologie seule.
La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique.
La France est une puissance moyenne qui ne peut se permettre de prendre du retard technologique. Mais la France est également une grande démocratie qui se veut exemplaire : elle ne peut faire n’importe quoi avec l’avènement de ces nouvelles armes. Elle doit instaurer la primauté humaine sur le code informatique, assumer un couple homme-machine où l’impact militaire demeure, mais où l’humain reste responsable.
Les drones, l’IA, les robots tueurs sont déjà là. Le front en Ukraine est saturé de drones et de logiciels qui trient des images. Déjà, des prototypes sont capables de détecter, de poursuivre et de frapper presque sans intervention humaine. Où la France se place-t-elle dans cette rapide évolution, et que doit-elle décider aujourd’hui pour rester dans la course sans nier ses valeurs ?
Le drone est devenu l’outil d’artillerie du pauvre. Il est l’instrument de reconnaissance de la petite unité et l’engin de précision du dernier mètre. Avec les milliers de drones dans le ciel, l’œil est partout, l’angle mort se réduit. La surprise se joue en secondes.
L’artillerie classique est, certes, toujours efficace. Mais la rupture que constituent les drones est d’abord logicielle : des algorithmes identifient une silhouette humaine ou celle d’un véhicule et accélèrent le temps entre la détection et la frappe. C’est précisément là où l’humain fatigue, là où chaque seconde compte et que la valeur ajoutée de l’autonomie s’affirme.
Il est nécessaire de distinguer l’idéal du réel. Dans la première configuration, l’humain décide alors que, dans la deuxième, l’humain commence à déléguer des éléments de son jugement à, par exemple, une alerte automatique ou à une trajectoire optimale.
Concrètement, il est d’usage de parler de trois régimes différents :
Le premier cas est très simple : l’humain décide. Dans le deuxième cas, l’humain surveille et, éventuellement, interrompt. Dans le troisième cas, la machine est préprogrammée et décide seule.
Ce n’est pas qu’une affaire de choix, car, à très haute vitesse (défense antidrones, interception de missiles ou encore combat collaboratif aérien complexe), la présence humaine tend à s’effacer, puisque l’action se joue en secondes ou en dizaines de secondes. Le réalisme et l’efficacité de l’action imposent dès lors de penser que refuser toute autonomie revient à accepter d’être lent et, donc, inopérant. En revanche, accepter une autonomie totale, c’est-à-dire rejeter tout garde-fou, c’est faire entrer de l’incertitude, voire de l’erreur, dans le fonctionnement d’une action létale.
La responsabilité stratégique et éthique d’un pays démocratique se joue entre ces deux pôles.
La France est, du point de vue militaire, une puissance moyenne, mais de très haute technologie. Elle est souveraine dans la grande majorité de ses équipements, mais ne dispose pas d’un budget illimité, ce qui l’oblige à arbitrer.
Dans ce contexte, se priver d’autonomie revient à prendre le risque d’un retard capacitaire face à des régimes autocratiques à l’éthique inexistante ; s’y jeter sans doctrine, c’est s’exposer à une bavure ou à une action involontaire menant à une escalade risquant d’éroder la confiance de la société dans sa propre armée.
La France dispose d’une armée moderne et aguerrie en raison de sa participation à de nombreuses missions extérieures. Sa chaîne hiérarchique est saine car elle responsabilise les différents niveaux (contrairement à l’armée russe par exemple). Son industrie sait intégrer des systèmes complexes. En outre, elle dispose d’une grande expertise de la guerre électronique et en cybersécurité. Ces différentes caractéristiques sont des fondements solides pour développer une autonomie maîtrisée.
En revanche, les défauts de l’industrie française sont connus. Son industrie et les militaires privilégient des solutions lourdes et chères. En bonne logique ; les cycles d’acquisition sont longs en raison des innovations. Enfin, une certaine difficulté à passer du démonstrateur à la série peut être constatée.
Tout cela rend difficile la réponse à un besoin massif et urgent du déploiement de drones et de systèmes antidrones, qui combinent détection, brouillage, leurre et neutralisation, du niveau section jusqu’au niveau opératif (sur l’ensemble d’un front).
L’industrie doit ancrer la primauté nouvelle dès la conception de l’arme ou du système d’armes. Cet objectif doit incorporer certains impératifs : chaque boucle létale (processus de décision et d’action qui conduit à neutraliser ou à tuer une cible) doit avoir un responsable humain identifiable.
En outre, des garde-fous techniques doivent être mis en place. Des « kill-switch » (« boutons d’arrêt d’urgence ») physiques doivent être installés dans les systèmes. Des seuils reparamétrables doivent être prévus : par exemple, si un radar ou une IA détecte une cible, il est nécessaire de définir un seuil de confiance (par exemple de 95 %) avant de la classer comme ennemie. Des limitations géographiques et temporelles codées doivent être prévues. Par exemple, un drone armé ne peut jamais franchir les coordonnées GPS d’un espace aérien civil ou bien une munition autonome se désactive automatiquement au bout de trente minutes si elle n’a pas trouvé de cible.
Un autre point important est que la décision doit être traçable. Il est nécessaire de posséder des journaux de mission permettant de déterminer qui a fait quoi, quand et sur quelle base sensorielle (radars, imagerie, etc.). Une telle traçabilité permet de définir la chaîne de responsabilité. Elle permet également d’apprendre de ses erreurs.
La formation des personnels est aussi importante que la qualité des matériels. Les militaires doivent être formés, préparés à l’ambiguïté. Les opérateurs et décisionnaires doivent être en mesure de comprendre le fonctionnement et les limites des algorithmes, savoir lire un score de confiance. Ils doivent être en mesure de reconnaître une dérive de capteur et, par conséquent, de décider quand reprendre la main. Paradoxalement, l’autonomie exige des humains mieux formés, pas moins.
Sur le plan capacitaire, la France doit apprendre le « low-cost », ce qui implique de disposer d’essaims et de munitions rôdeuses en nombre. Pour ce faire, le pays doit savoir intégrer dans sa base industrielle de défense aussi bien les grandes entreprises traditionnelles que des start-ups innovantes pour plus de productions locales et réactives. Il ne s’agit pas de remplacer les systèmes lourds, mais bien de les compléter afin de pouvoir saturer le champ de bataille.
Le pays, qui a délaissé la capacité antiaérienne, doit bâtir une défense antidrones, chargée de la courte portée et ayant les capacités de détecter, d’identifier, de brouiller, de leurrer, de durcir les postes de commandement (c’est-à-dire leur apporter une protection plus efficace, en les enterrant, par exemple) et protéger les convois. Ces capacités doivent être intégrées dans l’entraînement au quotidien.
Un piège peut être une forme de surenchère normative stérile. Il est nécessaire de tenir bon sur les principes sans être naïf dans un monde de plus en plus agressif. Si la France dit explicitement « Jamais de robots tueurs autonomes », cela n’empêchera pas d’autres pays d’en utiliser ; mais dire « Toujours oui à ces technologies » serait incompatible avec les principes moraux proclamés par Paris.
Un cadre clair, ajusté par l’expérience, doit donc être inventé.
La dépendance logicielle et, donc, l’absence de souveraineté numérique sont très dangereuses. Il est indispensable de ne pas acheter de briques IA sans véritablement connaître leurs biais, sans savoir ce que l’algorithme a pris en compte. Un effort financier continu doit être entrepris pour développer nos propres outils.
Enfin, il faut éviter d’oublier le facteur humain. Il serait tentant de soulager la chaîne décisionnelle par l’automatisation. Ce serait la priver de l’intelligence de situation propre aux humains et de leur intuition difficilement codable. La doctrine doit accepter de ralentir provisoirement l’action sur le champ de bataille pour laisser la place au jugement.
Une machine, bien paramétrée, peut paradoxalement mieux respecter qu’un humain le droit des conflits armés qui repose sur quelques principes simples. Durant un conflit, il est nécessaire de distinguer (ne pas frapper les civils), d’agir dans le cadre de la proportionnalité, c’est-à-dire de ne pas causer de dommages excessifs (ce qui est très difficile à mettre en œuvre) ; et d’appliquer la précaution (faire tout ce qui est raisonnable pour éviter l’erreur).
Si une machine peut aider à appliquer ces principes, elle ne peut, seule, assumer la responsabilité de se tromper.
Comment correctement appliquer ces principes ? Réponse : c’est le commandement qui s’assure que les paramétrages et les règles ont été convenablement définis, testés, validés.
La guerre est par nature une activité terrible, destructrice des âmes et des chairs. Affirmer que le recours généralisé à l’IA permettrait de rendre la guerre « propre » serait une imposture intellectuelle et morale.
L’autonomie est ambiguë. Si elle peut réduire certaines erreurs humaines inhérentes au combat (la fatigue, le stress, la confusion, l’indécision), elle en introduit d’autres :
Notre pays doit faire concilier agilité et vitesse au combat, et conscience humaine. Cela suppose de coder nos valeurs dans les systèmes (garde-fous, traçabilité, réversibilité), de procéder à des essais dans le maximum de situation (temps, météo, nombres différents d’acteurs, etc.), d’enseigner ce que l’on pourrait appeler « l’humilité algorithmique », du sergent au général.
Alors, demandions-nous, qui décidera de la vie et de la mort ? La réponse d’un pays démocratique, comme le nôtre, doit être nuancée. Certes, la machine étend le champ du possible, mais l’humain doit garder la main sur le sens et sur la responsabilité. L’autonomie ne doit pas chasser l’humain. La guerre moderne impose la rapidité de l’attaque et de la réplique. À notre doctrine d’éviter de faire de cet impératif un désert éthique.
Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.08.2025 à 17:10
Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
Le son déchire le silence de la nuit : un sanglot étouffé, puis un hoquet, qui dégénère rapidement en un vagissement aigu et frénétique. Pour tout parent, soignant ou soignante, c’est un appel à l’action familier et urgent. Mais un appel à quoi ? Le bébé a-t-il faim ? A-t-il mal ? Se sent-il seul ? Ou est-il simplement inconfortable ? Ces cris peuvent-ils être compris instinctivement par les parents ?
En tant que bioacousticien, j’ai passé des années à étudier les communications sonores des animaux : des cris des bébés crocodiles, encore dans leurs œufs incitant leur mère à creuser le nid, aux cris des oiseaux diamants mandarins, permettant la reconnaissance au sein du couple. Alors que nous comprenons de mieux en mieux comment et pourquoi les animaux non humains communiquent par des sons, les vocalisations humaines non verbales sont encore peu étudiées. J’ai ainsi été surpris de découvrir, en tournant mon attention vers notre propre espèce, que les pleurs des bébés humains recelaient autant, sinon plus, de mystère.
Pourtant, les pleurs causent parfois bien des soucis aux parents et aux autres personnes qui s’occupent d’un bébé. Au-delà de ces soucis du quotidien, les pleurs de nourrisson peuvent entraîner, chez des personnes qui se sentent dépassées par la situation, une perte du contrôle d’elles-mêmes et être à l’origine du syndrome du bébé secoué (SBS), une maltraitance aux conséquences, dans certains cas, fatales pour l’enfant.
Depuis plus d’une décennie, mes collègues et moi, à l’Université et au CHU de Saint-Étienne, enregistrons des bébés, appliquons les outils de l’analyse des sons, et menons des expériences psychoacoustiques et de neuro-imagerie. Nos découvertes remettent en question nos croyances les plus établies et offrent un nouveau cadre, fondé sur des preuves, pour comprendre cette forme fondamentale de communication humaine.
Première constatation, et peut-être l’une des plus importantes : il est impossible de déterminer la cause d’un pleur de bébé uniquement à partir de sa sonorité.
De nombreux parents subissent une pression immense pour devenir des « experts et expertes en pleurs », et toute une industrie a vu le jour pour capitaliser sur cette anxiété. Applications, appareils et programmes de formation coûteux promettent toutes et tous de traduire les pleurs des bébés en besoins spécifiques : « J’ai faim », « Change ma couche », « Je suis fatigué·e ».
Nos recherches, cependant, démontrent que ces affirmations sont sans fondement.
Pour tester cela scientifiquement, nous avons entrepris une étude à grande échelle. Nous avons placé des enregistreurs automatiques dans les chambres de 24 bébés, enregistrant en continu pendant deux jours à plusieurs reprises au cours de leurs quatre premiers mois. Nous avons ainsi constitué une énorme base de données de 3 600 heures d’enregistrement contenant près de 40 000 « syllabes » de pleurs (les unités composant les pleurs).
Les parents, dévoués, ont scrupuleusement noté l’action qui avait réussi à calmer le bébé, nous donnant une « cause » pour chaque pleur : la faim (calmée par un biberon), l’inconfort (calmé par un changement de couche) ou l’isolement (calmé par le fait d’être pris dans les bras). Nous avons ensuite utilisé des algorithmes d’apprentissage automatique, entraînant une intelligence artificielle (IA) sur les propriétés acoustiques de ces milliers de pleurs pour voir si elle pouvait apprendre à en identifier la cause. S’il existait un « pleur de faim » ou un « pleur d’inconfort » distinct, l’IA aurait dû être capable de le détecter.
Le résultat fut un échec retentissant. Le taux de réussite de l’IA n’était que de 36 % – à peine supérieur aux 33 % qu’elle obtiendrait par pur hasard. Pour nous assurer qu’il ne s’agissait pas seulement d’une limite technologique, nous avons répété l’expérience avec des auditeurs et des auditrices humaines. Nous avons demandé à des parents et non-parents, d’abord, de s’entraîner sur les pleurs d’un bébé spécifique, comme le ferait un parent dans la vie réelle, puis d’identifier la cause de nouveaux pleurs du même bébé. Ils n’ont pas fait mieux, avec un score de seulement 35 %. La signature acoustique d’un pleur de faim n’est pas plus distincte de celle d’un pleur d’inconfort.
Cela ne signifie pas que les parents ne peuvent pas comprendre les besoins de leur bébé. Cela signifie simplement que le pleur en lui-même n’est pas un dictionnaire. Le pleur est le signal d’alarme. C’est votre connaissance du contexte essentiel qui vous permet de le décoder. « La dernière tétée remonte à trois heures, il a probablement faim. » « Sa couche semblait pleine. » « Il est seul dans son berceau depuis un moment. » Vous êtes le détective ; le pleur est simplement l’alerte initiale, indifférenciée.
Si les pleurs ne signalent pas leur cause, quelle information transmettent-ils de manière fiable ? Nos recherches montrent qu’ils véhiculent deux informations importantes.
La première est une information statique : l’identité vocale du bébé. Tout comme chaque adulte a une voix distincte, chaque bébé a une signature de pleur unique, principalement déterminée par la fréquence fondamentale (la hauteur) de son pleur. C’est le produit de son anatomie individuelle – la taille de son larynx et de ses cordes vocales. C’est pourquoi vous pouvez reconnaître le pleur de votre bébé au milieu d’une nurserie. Cette signature est présente dès la naissance et change lentement au cours du temps avec la croissance du bébé.
Fait intéressant, si les pleurs des bébés ont une signature individuelle, ils n’ont pas de signature sexuelle. Les larynx des bébés filles et garçons sont de la même taille. Pourtant, comme nous l’avons montré dans une autre étude, les adultes attribuent systématiquement les pleurs aigus aux filles et les pleurs graves aux garçons, projetant leur connaissance des voix adultes sur les nourrissons.
La seconde information est dynamique : le niveau de détresse du bébé. C’est le message le plus important encodé dans un pleur, et il est transmis non pas tant par la hauteur (aiguë ou grave) ou le volume (faible ou fort), mais par une caractéristique que nous appelons la « rugosité acoustique ». Un pleur d’inconfort simple, comme avoir un peu froid après le bain, est relativement harmonieux et mélodique. Les cordes vocales vibrent de manière régulière et stable.
Mais un pleur de douleur réelle, comme nous l’avons enregistré lors de séances de vaccination, est radicalement différent. Il devient chaotique, rêche et grinçant.
Le stress de la douleur pousse le bébé à forcer plus d’air à travers ses cordes vocales, les faisant vibrer de manière désorganisée et non linéaire. Pensez à la différence entre une note pure jouée à la flûte et le son rauque et chaotique qu’elle produit quand on souffle trop fort. Cette rugosité, un ensemble de phénomènes acoustiques incluant le chaos et des sauts de fréquence soudains, est un signal universel et indubitable de détresse. Un « ouin-ouin » mélodieux signifie « Je suis un peu contrarié », tandis qu’un « RRRÂÂÂhh » rauque et dur signifie : « Il y a urgence ! »
Alors, qui est le plus à même de décoder ces signaux complexes ? Le mythe tenace de l’« instinct maternel » suggère que les mères sont biologiquement programmées pour cette tâche. Nos travaux démentent cette idée. Un instinct, comme le comportement figé d’une oie qui ramène un œuf égaré en le roulant jusqu’à son nid, est un programme inné et automatique. Comprendre les pleurs n’a rien à voir avec cela.
Dans l’une de nos études clés, nous avons testé la capacité des mères et des pères à identifier le pleur de leur propre bébé parmi une sélection d’autres. Nous n’avons trouvé absolument aucune différence de performance entre elles et eux. Le seul facteur déterminant était le temps passé avec le bébé. Les pères qui passaient autant de temps avec leurs nourrissons que les mères étaient tout aussi compétents. La capacité à décoder les pleurs n’est pas innée ; elle s’acquiert par l’exposition.
Nous l’avons confirmé dans des études avec des non-parents. Nous avons constaté que des adultes sans enfants pouvaient apprendre à reconnaître la voix d’un bébé spécifique après l’avoir entendue pendant moins de soixante secondes. Et celles et ceux qui avaient une expérience préalable de la garde d’enfants, comme le baby-sitting ou l’éducation de frères et sœurs plus jeunes, étaient significativement meilleurs pour identifier les pleurs de douleur d’un bébé que celles et ceux qui n’avaient aucune expérience.
Tout cela a un sens sur le plan évolutif. Les êtres humains sont une espèce à reproduction coopérative. Contrairement à de nombreux primates où la mère a une relation quasi exclusive avec son petit, les bébés humains ont historiquement été pris en charge par un réseau d’individus : pères, grands-parents, frères et sœurs et autres membres de la communauté. Dans certaines sociétés, comme les !Kung d’Afrique australe, un bébé peut avoir jusqu’à 14 soignants et soignantes différentes. Un « instinct » câblé et exclusivement maternel serait un profond désavantage pour une espèce qui repose sur le travail d’équipe.
Nos recherches en neurosciences révèlent comment fonctionne ce processus d’apprentissage. Lorsque nous entendons un bébé pleurer, tout un réseau de régions cérébrales, appelé le « connectome cérébral des pleurs de bébé », entre en action. Grâce à l’imagerie à résonance magnétique fonctionnelle (IRMf), nous avons observé que les pleurs activent dans le cerveau les centres auditifs, le réseau de l’empathie (nous permettant de ressentir l’émotion de l’autre), le réseau miroir (nous aidant à nous mettre à la place de l’autre) ainsi que des zones impliquées dans la régulation des émotions et la prise de décision.
De manière intéressante, cette réponse n’est pas la même pour tout le monde. En comparant l’activité cérébrale des parents et des non-parents, nous avons constaté que si le cerveau de chacun réagit, le « cerveau parental » est différent. L’expérience avec un bébé renforce et spécialise ces réseaux neuronaux. Par exemple, le cerveau des parents montre une plus grande activation dans les régions associées à la planification et à l’exécution d’une réponse, tandis que les non-parents montrent une réaction émotionnelle et empathique plus brute, non tempérée. Les parents passent de la simple sensation de détresse à la résolution active de problèmes.
De plus, nous avons constaté que les niveaux individuels d’empathie – et non le genre – étaient le prédicteur le plus puissant de l’intensité d’activation du réseau de « vigilance parentale » du cerveau. S’occuper d’un enfant est une compétence qui se perfectionne avec la pratique, et elle remodèle physiquement le cerveau de toute personne dévouée, qu’elle ait ou non un lien de parenté avec le bébé.
Comprendre la science des pleurs n’est pas un simple exercice de recherche fondamentale ; cela a de profondes implications dans le monde réel. Les pleurs incessants, en particulier ceux liés aux coliques du nourrisson (qui touchent jusqu’à un quart des bébés), sont une source majeure de stress parental, de privation de sommeil et d’épuisement. Cet épuisement peut mener à un sentiment d’échec et, dans les pires cas, être un déclencheur du syndrome du bébé secoué, une forme de maltraitance tragique et évitable.
Le fait de savoir que vous n’êtes pas censé·e « comprendre de manière innée » ce que signifie un pleur peut être incroyablement libérateur. Cela lève le fardeau de la culpabilité et vous permet de vous concentrer sur la tâche pratique : vérifier le contexte, évaluer le niveau de détresse (le cri est-il rugueux ou mélodique ?) et essayer des solutions.
Plus important encore, la science met en lumière la plus grande force de notre espèce : la coopération. Les pleurs insupportables deviennent supportables lorsque le bébé peut être confié à un ou une partenaire, un grand-parent ou une amie pour une pause bien méritée.
Alors, la prochaine fois que vous entendrez le pleur perçant de votre bébé dans la nuit, souvenez-vous de ce qu’est vraiment cette vocalisation : non pas un test de vos capacités innées ou un jugement sur vos compétences parentales, mais une alarme simple et puissante, modulée par le degré d’inconfort ou de détresse ressenti par votre enfant.
C’est un signal façonné par l’évolution, interprétable non par un mystérieux instinct, mais par un cerveau humain attentionné, attentif et expérimenté. Et si vous vous sentez dépassé·e, la réponse la plus scientifiquement fondée et la plus appropriée sur le plan évolutif est de demander de l’aide.
Pour en savoir plus sur les pleurs des bébés, voir le site web : Comprendrebebe.com.
Nicolas Mathevon est l’auteur de Comprendre son bébé. Le langage secret des pleurs, éditions Tana, 2025.
Le projet « Les pleurs du bébé : Une approche intégrée – BABYCRY » est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Nicolas Mathevon a reçu des financements de l'ANR, IUF, Fondation des Mutuelles AXA.
26.08.2025 à 12:36
Catherine Loveday, Professor, Neuropsychology, University of Westminster
Et si la musique vous laissait de marbre ? Alors qu’elle fait vibrer la plupart d’entre nous, 5 à 10 % de la population reste totalement indifférente aux mélodies. Ce trouble, appelé « anhédonie musicale », intrigue les chercheurs, qui en dévoilent aujourd’hui l’origine : un défaut de communication entre le cerveau auditif et le système de récompense.
Lorsque je demande à une salle remplie d’étudiants comment ils se sentiraient s’ils ne pouvaient plus jamais écouter de musique, la plupart sont horrifiés. Un bon nombre était encore en train d’écouter de la musique juste avant le début du cours. Mais il y en a toujours un ou deux qui avouent timidement que cela ne changerait rien à leur vie si la musique n’existait pas.
Les psychologues appellent cela « l’anhédonie musicale », c’est-à-dire l’absence de plaisir à écouter de la musique. Et un nouvel article publié par des neuroscientifiques espagnols et canadiens suggère qu’elle serait causée par un problème de communication entre différentes zones du cerveau.
Pour beaucoup d’entre nous, ne rien ressentirquand on écoute de la musique semble incompréhensible. Pourtant, pour 5 à 10 % de la population, c’est la norme.
Dans le cadre de mes recherches et de ma pratique auprès de personnes souffrant de pertes de mémoire, je leur demande souvent de choisir leurs chansons préférées dans le but de raviver chez elles des souvenirs marquants.
J’ai toujours été fascinée par le fait que certaines personnes me regardent d’un air perplexe et me disent : « La musique ne m’a jamais vraiment intéressé•e. » Cela contraste tellement avec la majorité des gens qui adorent parler de leur premier disque ou de la chanson qui a été jouée à leur mariage.
Des études récentes montrent des variations considérables dans l’intensité des émotions ressenties quand on écoute de la musique. Environ 25 % de la population est hyperhédonique, c’est-à-dire qu’elle éprouve un besoin presque obsessionnel de musique.
Les recherches dans ce domaine utilisent généralement le Barcelona Music Reward Questionnaire (BMRQ) (questionnaire de récompense musicale de Barcelone), qui interroge les personnes sur l’importance de la musique dans leur vie quotidienne : À quelle fréquence en écoutent-elles ? Leur arrive-t-il de fredonner des airs ? Y a-t-il des chansons qui leur donnent des frissons ?
Si le score obtenu est faible, alors on parle d’anhédonie musicale. Pour confirmer ce diagnostic, des chercheurs mesurent, en laboratoire, le rythme cardiaque, la température ou la sudation des personnes sondées, pendant qu’elles écoutent de la musique. Chez la plupart d’entre nous, ces marqueurs physiologiques varient en fonction de la musique écoutée, selon qu’elle nous touche beaucoup ou peu. Mais chez les personnes souffrant d’anhédonie musicale, l’effet physiologique est nul.
Une théorie a consisté à dire que le fait de moins apprécier la musique pourrait refléter une anhédonie plus générale, c’est-à-dire une absence de plaisir pour quoi que ce soit. Ces pathologies sont souvent liées à des perturbations au niveau des zones du système de récompense, telles que le noyau accumbens, le noyau caudé et le système limbique.
Il s’agit d’une caractéristique courante de la dépression qui, comme d’autres troubles de l’humeur, peut être corrélée à une absence de réponse à la musique. Cependant, cela n’explique pas l’anhédonie musicale « spécifique », qui touche des personnes qui prennent du plaisir avec d’autres récompenses, comme la nourriture, les relations sociales ou le cinéma par exemple, mais restent indifférentes à la musique.
Une autre explication qui a été avancée consiste à dire que les personnes qui s’intéressent peu à la musique ne la comprennent tout simplement pas, peut-être en raison de difficultés à percevoir les mélodies et les harmonies.
Pour vérifier cette hypothèse, nous pouvons nous intéresser aux personnes atteintes d’amusie, un trouble de la perception musicale qui affecte la capacité à reconnaître des mélodies familières ou à détecter des notes fausses. Ce trouble survient lorsque l’activité est réduite dans des régions clés du cortex fronto-temporal du cerveau, qui gère le traitement complexe de la hauteur des notes et de la mélodie. Or, on connaît au moins un cas d’une personne atteinte d’amusie qui n’en aime pas moins la musique.
Quoi qu’il en soit, d’autres recherches montrent que les personnes souffrant d’anhédonie musicale ont souvent une perception musicale normale, ils reconnaissent les chansons ou distinguent sans problème les accords majeurs des accords mineurs.
Alors, que se passe-t-il ? Un article recense toutes les recherches menées à ce jour dans ce domaine. La récompense musicale semble être traitée par la connectivité existant entre les zones corticales auditives, situées au niveau du gyrus temporal supérieur, et les zones du système de récompense. Il arrive que ces zones soient intactes chez des sujets souffrant d’anhédonie musicale. C’est donc la communication entre les zones qui est gravement perturbée : les parties du cerveau chargées du traitement auditif et le centre de la récompense ne communiquent pas.
Les personnes qui réagissent normalement à la musique présentent une activité importante au niveau de cette connexion dans le cerveau, qui est plus élevée pour une musique agréable que pour des sons neutres. Une étude réalisée en 2018 a montré qu’il est possible d’augmenter le plaisir procuré par la musique en stimulant artificiellement ces voies de communication à l’aide d’impulsions magnétiques.
Cette nouvelle analyse pourrait permettre aux scientifiques de mieux comprendre les troubles cliniques dans lesquels les récompenses quotidiennes semblent réduites ou amplifiées, ce qui est le cas par exemple lors de troubles alimentaires, d’addictions au sexe ou aux jeux.
Ces résultats remettent également en question l’idée répandue selon laquelle tout le monde aime la musique. La plupart des gens l’aiment, mais pas toutes les personnes, et cette variation s’explique par des différences dans le câblage du cerveau. Parfois, cela résulte des suites d’une lésion cérébrale, mais le plus souvent, les individus naissent ainsi, et une étude réalisée en mars 2025 a mis en évidence l’existence d’un lien génétique.
Catherine Loveday ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.08.2025 à 19:21
Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université
Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que le principe de l’autotest a été imaginé, dans les années 1960, par une jeune designer pour rendre le test accessible à toutes les femmes en le pratiquant à domicile ? Découvrez l’histoire de Margaret Crane, et les obstacles qu’elle a dû surmonter.
Les tests de diagnostic rapide ont sauvé de nombreuses vies à travers le monde grâce à leurs simplicité et rapidité, et à leur prix abordable. Les plus répandus sont les tests antigéniques, dont nous avons tous pu bénéficier pendant la pandémie de Covid-19. D’autres tests antigéniques existent, comme ceux détectant la dengue ou le chikungunya, deux infections virales tropicales, ou encore le paludisme, la maladie la plus mortelle au monde chez les enfants de moins de 5 ans.
Ces types de tests sont reconnus d’utilité publique par l’Organisation mondiale de la santé (OMS). Le test antigénique de la grippe est par exemple utilisé en routine. Bien que l’intérêt pour ces tests ait émergé durant la Covid-19, nous étions déjà familiarisés avec les tests antigéniques sans nous en rendre compte ! Les tests de grossesse, ô combien impliqués dans nos histoires personnelles, sont les premiers tests de diagnostic rapide créés. On doit cette découverte à Margaret Crane, dont l’invention a contribué à l’amélioration considérable du domaine diagnostique général.
Détecter une grossesse a toujours revêtu une importance pour la santé féminine, la gestion familiale et les questions sociales. Un papyrus médical égyptien datant d’environ 1350 avant notre ère, appelé le papyrus Carlsberg, détaille une méthode simple. Des grains d’orge et de blé, enfermés chacun dans un petit sac ou un récipient, étaient humidifiés quotidiennement avec l’urine de la femme à tester. L’absence de germination diagnostiquait l’absence de grossesse. La germination de l’orge, elle, prévoyait la naissance d’un garçon, quand celle du blé présageait celle d’une fille. En 1963, une équipe de recherche a décidé d’essayer cette technique de l’Égypte antique, à première vue rudimentaire. De manière étonnante, même si la prédiction du sexe était décevante, la méthode égyptienne avait une sensibilité très élevée : 70 % des grossesses ont été confirmées ! Cela est probablement dû au fait que les hormones dans les urines de la femme enceinte miment l’action des phytohormones, les hormones végétales.
En 1927, le zoologue anglais Lancelot Hogben obtient une chaire de recherche pour étudier les hormones animales à l’Université du Cap en Afrique du Sud. Il y découvre le « crapaud à griffe » du Cap (Xenopus laevis) dont les femelles ont la capacité de pondre toute l’année. Le professeur Hogben contribue à la création d’un test de grossesse qui porte son nom. Son principe ? Injecter de l’urine de femme enceinte dans un crapaud femelle. En raison des hormones contenues dans l’urine, cette injection déclenchait spontanément la ponte. Le test présentait une sensibilité supérieure à 95 % !
Bien que ce protocole soit devenu un test de routine dans les années 1940, la majorité des femmes n’avait toujours pas d’accès facile aux tests de grossesse. D’autres tests similaires existaient, utilisant des souris femelles ou des lapines, consistant à en examiner les ovaires pendant 48 à 72 heures après l’injection d’urine, pour voir si celle-ci avait induit une ovulation. Ces tests présentaient des contraintes de temps, de coûts et l’utilisation d’animaux, ce qui a motivé la recherche de méthodes plus rapides et moins invasives.
Au début des années 1930, la docteure américaine Georgeanna Jones découvrit que le placenta produisait une hormone, appelée la gonadotrophine chorionique humaine, dont l’abréviation est l’hCG. Cette découverte en a fait un marqueur précoce de grossesse, et pour la tester, il ne restait plus qu’à la détecter !
En 1960, le biochimiste suédois Leif Wide immunisa des animaux contre l’hCG humaine et en purifia les anticorps. On avait donc à disposition des molécules, les anticorps, capables de détecter l’hCG, encore fallait-il que la réaction antigène-anticorps (dans ce cas, l’hCG est l’antigène reconnu par les anticorps) puisse être visible pour confirmer une grossesse à partir d’urines.
Le professeur Leif Wide développa un test de grossesse, selon une technologie appelée l’inhibition de l’hémagglutination. Elle se base sur l’utilisation de globules rouges, dont la couleur permet une analyse à l’œil nu. Si les anticorps se lient aux globules rouges, ils ont tendance à s’agglutiner, et cela forme une « tache rouge » au fond du test. En cas de grossesse, l’échantillon d’urine contient de l’hCG : les anticorps réagissent avec l’hCG et ne peuvent pas lier les globules rouges. L’absence de tâche rouge indique une grossesse ! Ce test était révolutionnaire, car, contrairement aux autres, et en plus d’être beaucoup moins coûteux, le résultat n’était obtenu qu’en deux heures.
En 1962, l’entreprise américaine Organon Pharmaceuticals a commercialisé ce test de grossesse, à destination des laboratoires d’analyses médicales. En 1967, Margaret Crane est une jeune designer de 26 ans sans aucun bagage scientifique, employée par cette compagnie dans le New Jersey, pour créer les emballages de leur branche cosmétique. Un jour qu’elle visite le laboratoire de l’entreprise, elle assiste à l’exécution d’un des tests. Un laborantin lui explique la longue procédure, consistant au prélèvement d’urine par le médecin et à l’envoi à un laboratoire d’analyses. Il fallait attendre environ deux semaines pour une femme avant d’avoir un résultat.
Malgré la complexité théorique de la technique, Margaret Crane réalise alors à la fois la simplicité de lecture du test et du protocole : il suffisait d’avoir des tubes, un flacon d’anticorps et un indicateur de couleur (les globules rouges) ! De retour chez elle à New York, elle lance des expériences en s’inspirant d’une boîte de trombones sur son bureau, et conçoit un boîtier ergonomique – avec tout le matériel et un mode d’emploi simplifié –, destiné à l’usage direct à la maison par les utilisatrices. Margaret Crane montre son prototype à Organon Pharmaceuticals, qui refuse l’idée, jugeant qu’une femme ne serait pas capable de lire seule le résultat, aussi simple soit-il…
Peu de temps après la proposition de Margaret Crane, un homme employé par Organon Pharmaceuticals s’en inspire et lance la même idée, et lui est écouté. Elle décide alors de tirer parti de la situation, en assistant aux réunions où elle était la seule femme. Plusieurs tests, prototypés par des designers masculins, y sont présentés : en forme d’œuf de poule, soit roses, soit décorés de strass… Sans aucune hésitation, c’est celui de Margaret Crane qui est choisi pour sa praticité, car elle l’avait pensé pour que son utilisation soit la plus facile possible. Margaret Crane dépose son brevet en 1969, mais Organon Pharmaceuticals hésite à le commercialiser tout de suite, de peur que les consommatrices soient dissuadées par des médecins conservateurs ou par leur communauté religieuse.
Il est mis pour la première fois sur le marché en 1971 au Canada, où l’avortement venait d’être légalisé. Bien que créditée sur le brevet américain, Margaret Crane ne perçut aucune rémunération, car Organon Pharmaceuticals céda les droits à d’autres entreprises.
L’histoire de Margaret Crane illustre un parcours fascinant, où l’observation empirique rencontre le design industriel. Sa contribution fut finalement reconnue en 2014 par le Musée national d’histoire américaine.
Son concept fondateur, celui d’un test simple, intuitif et autonome pour l’utilisateur, ouvrit la voie révolutionnaire aux tests de grossesse sous la forme que nous connaissons aujourd’hui et aux tests antigéniques, essentiels notamment lors de crises sanitaires.
Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.08.2025 à 16:23
Thibault Leroy, Biologiste, chercheur en génétique des populations, Inrae
Jérémy Clotault, Enseignant-chercheur en génétique, Université d’Angers
En Europe, la rose a connu son âge d’or au XIXe siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000. Grâce à l’étude des caractéristiques de ces variétés et aux outils modernes de la génomique, nous venons de retracer l’histoire de cette évolution, marquée par d’importants croisements entre rosiers asiatiques et rosiers européens anciens. De ce mariage est née une diversité qui continue de façonner nos jardins contemporains.
Depuis l’Antiquité, les roses sont cultivées, aussi bien en Chine que dans la région méditerranéenne, pour leurs vertus médicinales, notamment les propriétés anti-inflammatoires et antimicrobiennes des huiles essentielles ou comme sources de vitamine C dans les cynorrhodons (faux-fruits des rosiers), et pour leur forte charge symbolique, notamment religieuse. Pourtant, pendant des siècles, le nombre de variétés est resté très limité, autour d’une centaine. Le XIXe siècle marque un tournant majeur pour l’horticulture européenne avec une effervescence portée par un nouvel engouement pour l’esthétique des roses. Les collectionneurs – dont la figure la plus emblématique fut probablement l’impératrice Joséphine de Beauharnais– et les créateurs de nouvelles variétés français ont eu un rôle déterminant dans cet essor, donnant naissance à une véritable « rosomanie » et contribuant à une explosion du nombre de variétés, passant d’une centaine à près de 8000 variétés ! À titre de comparaison, depuis cette période, le nombre de variétés a certes continué de progresser, s’établissant à environ 30 000 variétés aujourd’hui, mais à un rythme de croissance moins soutenu.
Au-delà de l’augmentation du nombre de variétés, le XIXe siècle a été marqué par une grande diversification des caractéristiques des rosiers. Le nombre de pétales, notamment, est devenu un critère d’intérêt majeur. Les rosiers botaniques, des formes cultivées anciennes issues directement de la nature, ne possédaient en général que cinq pétales. Au fil du XIXe siècle, la sélection horticole a permis d’obtenir des variétés aux fleurs bien plus sophistiquées, certaines présentant plusieurs dizaines, voire des centaines de pétales. Cependant, cette évolution n’a pas suivi une progression linéaire : la première moitié du siècle a vu une nette augmentation du nombre de pétales, marquée par une mode des rosiers cent-feuilles, tandis que la seconde moitié a été plutôt caractérisée par une stagnation, voire un retour à des formes plus simples. Certaines variétés très travaillées sur le plan esthétique ont ainsi été sélectionnées pour paradoxalement n’avoir que cinq pétales.
La plus grande différence entre les rosiers du début et de la fin du XIXe réside dans un caractère fondamental : la remontée de floraison. Jusqu’au milieu du XIXe siècle, les rosiers étaient majoritairement non remontants, c’est-à-dire qu’ils ne fleurissaient qu’une seule fois par an, au printemps. La capacité des rosiers à refleurir, en générant de nouvelles fleurs au cours de l’été, voire même jusqu’à l’automne, n’est pas le fruit du hasard ! Cette caractéristique a constitué un objectif important des sélectionneurs de l’époque. Cette histoire, très associée aux croisements génétiques effectués, notamment avec des rosiers chinois, a laissé une empreinte durable, aussi bien dans nos jardins contemporains que dans les génomes mêmes des rosiers.
Bien qu’ils n’en étaient pas conscients, les sélectionneurs ont aussi pu contribuer à l’introduction de caractères défavorables. Ainsi, en étudiant les niveaux de symptômes de la maladie des taches noires sur des centaines de variétés du XIXe, nous avons mis en évidence une augmentation de la sensibilité des variétés. Cette maladie est aujourd’hui considérée comme une des premières causes de traitements phytosanitaires sur les rosiers, ce qui n’est pas sans poser des questions sanitaires sur l’exposition aux pesticides des fleuristes et autres professionnels du secteur horticole. Notre étude a néanmoins trouvé des régions génomiques associées à une résistance à cette maladie, offrant l’espoir d’une sélection vers des variétés nouvelles plus résistantes.
Notre étude n’a pas uniquement porté sur la prédisposition aux maladies mais également à l’une des caractéristiques les plus importantes des roses : leur odeur. Le parfum des roses est expliqué par un cocktail complexe de molécules odorantes. Deux molécules sont néanmoins très importantes dans ce qu’on appelle l’odeur de rose ancienne, le géraniol et le 2-phényléthanol. Nous avons étudié le parfum de centaines de variétés et observé une très forte variabilité de celui-ci, autant en teneur qu’en composition. Nos résultats ne soutiennent toutefois pas, ou alors extrêmement marginalement, une réduction du parfum des roses au cours du XIXe siècle. La perte de parfum est vraisemblablement arrivée ultérieurement, au cours du XXe siècle, une période qui voit l’apparition d’une activité de création variétale spécifique pour les roses à fleurs coupées et qui aurait négligé le parfum des roses au profit de la durée de tenue en vase, permettant de délocaliser la production dans des pays aux coûts de production réduits.
Pour mieux comprendre l’origine et la diversité de ces rosiers du XIXe, il faut désormais plonger dans l’univers de l’infiniment petit : celui de leurs génomes. Dans notre nouvelle étude, nous avons entrepris de caractériser en détail la génétique de plus de 200 variétés, en nous appuyant sur des dizaines de milliers de marqueurs, c’est-à-dire d’une information ciblée sur des zones particulières des génomes, connues comme étant variables selon les variétés, et ce, répartis sur l’ensemble de leurs chromosomes. Pour une trentaine de variétés, nous sommes allés encore plus loin, en décryptant l’intégralité de leur génome, fournissant non plus des dizaines de milliers, mais des dizaines de millions de marqueurs, ouvrant ainsi une fenêtre encore plus précise sur l’histoire génétique des rosiers. A noter que le mode de conservation nous a facilité la tâche pour étudier l’ADN de ces rosiers historiques directement à partir des plantes actuelles conservées en roseraie. En effet, grâce au greffage, les variétés de rosiers sont potentiellement immortelles !
Grâce à cette analyse, nous avons d’abord pu confirmer les résultats d’études antérieures qui, bien que fondées sur un nombre limité de marqueurs génétiques, avaient déjà mis en évidence que la diversification des rosiers du XIXe siècle résultait de croisements successifs entre rosiers anciens européens et rosiers asiatiques. La haute résolution offerte par la génomique nous a toutefois permis d’aller plus loin : nous avons montré que cette diversité s’est construite en réalité sur un nombre très réduit de générations de croisements, impliquant de manière récurrente des variétés phares de l’époque, utilisées comme parents dans de nombreux croisements. Il est remarquable de noter que cela s’est produit avec une bonne dose de hasard (via la pollinisation) puisque la fécondation artificielle (choix des deux parents du croisement) n’est utilisée sur le rosier qu’à partir du milieu du XIXᵉ siècle.
Bien que reposant sur un nombre limité de générations de croisements, contribuant à un métissage entre rosiers asiatiques et européens, notre étude a également permis de montrer que les rosiers possèdent une importante diversité génétique. Toutefois, la sélection menée au cours du XIXe siècle a contribué à une légère érosion de cette diversité, en particulier chez les variétés issues de la fin du siècle. Or, le maintien d’une large diversité génétique est essentiel pour la résilience et l’adaptation des espèces face aux changements environnementaux. Sa préservation au long cours représente donc un enjeu majeur. Tant que les anciennes variétés sont conservées, cette perte reste réversible. Il est donc crucial d’agir pour éviter leur disparition définitive en préservant les collections de roses anciennes et botaniques.
À l’échelle du génome complet, la sélection tend à réduire la diversité génétique. Mais à une échelle plus fine, ses effets peuvent être encore plus marqués, entraînant une diminution locale beaucoup plus prononcée de la diversité. Notre étude a ainsi révélé qu’une région du chromosome 3, contenant différentes formes d’un gène clé impliqué dans la remontée de la floraison, a fait l’objet d’une sélection particulièrement intense au XIXe siècle. Ce résultat, bien que prévisible compte tenu de l’importance de ce caractère, a été confirmé de manière claire à la lumière des données génomiques. De manière plus inattendue, nous avons également identifié d’autres régions du génome présentant des signatures similaires de sélection, notamment sur les chromosomes 1, 5 et 7. À ce stade, les gènes concernés, et les éventuels caractères morphologiques associés restent encore à identifier. Malgré les avancées de la génomique, le mariage des roses d’Occident et d’Orient au XIXe siècle garde encore nombre de ses secrets de famille !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.08.2025 à 16:33
Ella Kellner, Ph.D. Student in Biological Sciences, University of North Carolina – Charlotte
Elles peuvent inquiéter ou être balayées d’un revers de la main : les toiles d’araignées sont en réalité des merveilles d’ingénierie naturelle. Leur architecture, aussi variée qu’ingénieuse, répond à des fonctions précises : capturer des proies, protéger des œufs, amortir une chute ou fournir des repères sensoriels. Observer ces fils de soie, c’est plonger dans 400 millions d’années d’évolution et de créativité biologiques.
Vous êtes-vous déjà retrouvé nez à nez avec une toile d’araignée lors d’une promenade dans la nature ? Ou avez-vous déjà balayé des toiles d’araignée dans votre garage ?
Si oui, alors vous connaissez déjà les toiles orbitulaires, qui sont régulières, géométriques, et qui sont emblématiques d’Halloween ; et les toiles en réseau désordonné, qui sont celles que l’on trouve dans nos garages et dans nos caves. Ce ne sont là que deux exemples d’architectures de toiles d’araignées. Une toile est toujours spécialement adaptée à l’environnement de l’araignée et à la fonction qu’elle doit remplir.
Si de nombreuses araignées utilisent leurs toiles pour attraper des proies, elles ont également développé des façons inhabituelles d’utiliser leur soie, par exemple pour envelopper leurs œufs ou pour se créer des filins de sécurité qui les rattrapent lorsqu’elles tombent.
En tant que scientifique spécialiste des matériaux qui étudie les araignées et leur soie, je m’intéresse à la relation entre l’architecture des toiles d’araignées et la résistance des fils qu’elles utilisent. Comment la conception d’une toile et les propriétés de la soie utilisée affectent-elles la capacité d’une araignée à capturer son prochain repas ?
La soie d’araignée a une longue histoire évolutive. Les chercheurs pensent qu’elle est apparue il y a environ 400 millions d’années.
Ces araignées ancestrales utilisaient la soie pour tapisser leurs repaires, pour protéger leurs œufs vulnérables et pour créer des chemins sensoriels et des repères afin de se déplacer dans leur environnement.
Pour comprendre à quoi pouvaient ressembler les toiles d’araignées anciennes, les scientifiques s’intéressent à l’araignée lampadaire.
Cette araignée vit dans les affleurements rocheux des Appalaches et des Rocheuses, aux États-Unis. Elle est une parente vivante de certaines des plus anciennes araignées à avoir jamais tissé des toiles, et elle n’a pratiquement pas changé depuis.
Bien nommée en raison de la forme de sa toile, l’araignée lampadaire tisse une toile dont la base étroite s’élargit vers l’extérieur. Ces toiles comblent les fissures entre les rochers, où l’araignée peut se camoufler contre la surface rugueuse. Il est difficile pour une proie potentielle de traverser ce paysage accidenté sans se retrouver piégée.
Aujourd’hui, toutes les espèces d’araignées produisent de la soie. Chaque espèce qui tisse des toiles crée sa propre architecture de toile, parfaitement adaptée au type de proie qu’elle mange et à l’environnement dans lequel elle vit.
Prenons l’exemple de la toile orbiculaire. Il s’agit d’une toile réalisée à partir d’un centre de manière circulaire, avec un motif régulier de rayons et de cercles concentriques. Elle sert principalement à capturer des proies volantes ou sauteuses, telles que les mouches et les sauterelles. Les toiles orbiculaires se trouvent dans les zones ouvertes, comme à la lisière des forêts, dans les herbes hautes ou entre vos plants de tomates.
Comparez-les à des toiles en réseau désordonné, une structure que l’on voit le plus souvent près des plinthes dans les maisons, dans les caves ou greniers. Bien que l’expression « toile en réseau désordonné » soit couramment utilisée pour désigner toute toile d’araignée poussiéreuse et abandonnée, il s’agit en fait d’une forme de toile spécifique généralement conçue par les araignées de la famille des Theridiidae.
Cette toile a une architecture en 3D complexe, donnant un aspect fouillis. Les fils sont collants et tendus dans toutes les directions, notamment vers le bas, où ils sont maintenus fixés au sol sous une forte tension. Ces fils agissent comme un piège collant à ressort pour capturer des proies rampantes, telles que les fourmis et les coléoptères. Lorsqu’un insecte entre en contact avec la colle à la base du fil, la soie se détache du sol, parfois avec une force suffisante pour soulever le repas dans les airs.
Imaginez que vous êtes un naïf scarabée, qui rampe entre les brins d’herbe, et que vous vous retrouvez sur un sol recouvert d’une toile de soie tissée de manière très dense. Alors que vous commencez à avancer sur ce paillasson d’un genre particulier, vous avez juste le temps d’apercevoir huit yeux braqués sur vous depuis un entonnoir de soie, avant d’être happé et avalé tout cru.
Ce type d’araignée à toile en entonnoir bâtit des constructions horizontales au sol, qu’elle utilise comme une extension de son système sensoriel. L’araignée attend patiemment dans son abri en forme d’entonnoir. Les proies qui entrent en contact avec la toile créent des vibrations qui alertent l’araignée : un mets délicieux est en train de marcher sur le paillasson, et il est temps de lui sauter dessus.
Les araignées sauteuses sont des tisserandes à part, puisqu’elles ne tissent pas de toiles. Elles sont connues pour leurs couleurs variées, vives ou iridescentes, et leurs danses nuptiales élaborées, qui en font l’une des arachnides les plus attachantes. Leur aspect mignon les a rendues populaires, notamment grâce à Lucas the Spider, une adorable araignée sauteuse animée par Joshua Slice. Dotées de deux grands yeux frontaux qui leur permettent de percevoir les distances, ces araignées sont de fantastiques chasseuses, capables de sauter dans toutes les directions pour se déplacer et de bondir sur leur prise.
Mais que se passe-t-il lorsqu’elles se trompent dans leur calcul ou, pis, lorsqu’elles doivent échapper à un prédateur ? Les araignées sauteuses attachent un fil à leur point de départ avant de s’élancer dans les airs, comme une sorte de corde de rappel. Si le saut rate, elles peuvent remonter le long du filin et réessayer. Non seulement ce filin de sécurité en soie leur permet de ressauter, mais il les aide également dans leur saut. Le fil leur permet de contrôler la direction et la vitesse de leur saut en plein vol. En modifiant la vitesse à laquelle elles libèrent la soie, elles peuvent atterrir exactement où elles le souhaitent.
Toutes les toiles, de la toile orbiculaire à la toile d’araignée d’apparence désordonnée, sont construites selon une série d’étapes fondamentales distinctes.
Les araignées à toile orbiculaire commencent généralement par construire une prototoile. Les scientifiques pensent que cette construction initiale est une phase exploratoire, pendant laquelle l’araignée évalue l’espace disponible et trouve des points d’ancrage pour sa soie. Une fois que l’araignée est prête à construire sa toile principale, elle utilise la prototoile comme échafaudage pour créer le cadre, les rayons et la spirale qui l’aideront à absorber l’énergie des proies qui se prennent dedans et à les capturer. Ces structures sont essentielles pour garantir que leur prochain repas ne déchire pas la toile, en particulier les insectes tels que les libellules, qui ont une vitesse de croisière moyenne de 16 km/h. Une fois sa toile terminée, l’araignée orbiculaire retourne au centre de la toile pour attendre son prochain repas.
Un seul type de matériau ne permettrait pas de fabriquer toutes ces toiles d’araignée. En fait, les araignées peuvent créer jusqu’à sept types de fibre soie différente, et les araignées tisserandes les fabriquent toutes. Chaque type de fibre a des propriétés chimiques, physiques et mécaniques adaptées à la fonction recherchée, servant à un usage spécifique dans la vie de l’araignée (toile, cocon, câble d’ancrage, fil de détection, filet de capture, etc.). C’est dans les glandes séricigènes que sont produites les fibres de soie, et chaque type de glandes produit un fil de soie particulier avec une fonction spécifique.
Les araignées orbiculaires entament le tissage de leurs toiles par la fabrication d’un fil porteur très résistant. Quant à la spirale pour piéger les insectes, construite en partant du centre vers l’extérieur, elle est constituée d’une soie extrêmement élastique. Lorsqu’une proie se prend dans la spirale, les fils de soie se déforment sous l’impact. Ils s’étirent pour absorber l’énergie et empêcher la proie de déchirer la toile.
La « colle d’araignée » est un type de soie modifiée, dotée de propriétés adhésives. C’est la seule partie de la toile d’araignée qui soit réellement collante. Cette soie collante, située sur la spirale de capture, permet de s’assurer que la proie reste collée à la toile suffisamment longtemps pour que l’araignée puisse lui administrer sa morsure venimeuse.
Les araignées et leurs toiles sont incroyablement variées. Chaque espèce d’araignée s’est adaptée à son environnement naturel pour capturer certains types de proies. La prochaine fois que vous verrez une toile d’araignée, prenez le temps de l’observer plutôt que de la balayer ou d’écraser l’araignée qui s’y trouve.
Remarquez les différences dans la structure de la toile et voyez si vous pouvez repérer les gouttelettes de colle. Observez la façon dont l’araignée est assise dans sa toile. Est-elle en train de manger ou y a-t-il des restes d’insectes qu’elle a peut-être empêchés de s’introduire dans votre maison ?
L’observation de ces architectes arachnides peut nous en apprendre beaucoup sur le design, l’architecture et l’innovation.
Ella Kellner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 16:46
Ziteng Wang, Associate Lecturer, Curtin Institute of Radio Astronomy (CIRA), Curtin University
Dans le cosmos, certains objets émettent des pulsations plutôt qu’une lumière continue. Cette année, les astronomes ont découvert ASKAP J1832, un objet dans la Voie lactée qui émet à la fois des rayons X et des ondes radio, et qui ne ressemble à rien de connu.
Dans une étude publiée dans Nature au mois de mai, nous rapportons la découverte d’un nouveau phénomène transitoire à longue période – et, pour la première fois, qui émet également régulièrement des sursauts de rayons X.
Les transitoires à longue période sont une classe d’objets cosmiques récemment identifiés qui émettent d’intenses flashs d’ondes radio toutes les quelques minutes, voire à plusieurs heures d’intervalle, ce qui est beaucoup plus long que les émissions pulsées très rapides que nous détectons généralement chez les pulsars, qui sont issus de l’explosion d’une étoile massive en fin de vie.
La nature de ces objets transitoires à longue période et la manière dont ils génèrent leurs signaux inhabituels restent un mystère.
Notre découverte ouvre une nouvelle fenêtre sur l’étude de ces sources énigmatiques. Mais elle renforce également le mystère : l’objet que nous avons trouvé ne ressemble à aucun type d’étoile ou de système connu dans notre galaxie ni au-delà.
Le ciel nocturne recèle de nombreux éléments invisibles à l’œil nu, mais détectables à d’autres longueurs d’onde, comme les ondes radio.
Notre équipe de recherche scrute régulièrement le ciel radio à l’aide du SKA Pathfinder australien (ASKAP), exploité par le CSIRO dans la région de Wajarri Yamaji, dans l’ouest de l’Australie. Notre objectif est de trouver des objets cosmiques qui apparaissent et disparaissent – que l’on appelle « transients » en anglais, « objets transitoires », en français.
Les objets transitoires sont souvent liés à certains des événements les plus puissants et les plus spectaculaires de l’Univers, tels que la mort explosive d’étoiles.
Fin 2023, nous avons repéré une source extrêmement brillante, baptisée ASKAP J1832-0911 (d’après sa position dans le ciel), dans le plan de notre galaxie. Cet objet est situé à environ 15 000 années-lumière… c’est loin, mais toujours dans la Voie lactée.
Après la découverte initiale, nous avons commencé des observations de suivi à l’aide de télescopes situés dans le monde entier dans l’espoir de capter d’autres impulsions. Grâce à une surveillance continue, nous avons constaté que les impulsions radio provenant d’ASKAP J1832 arrivaient régulièrement, toutes les quarante-quatre minutes. Cela a confirmé qu’il s’agissait d’un nouveau membre du groupe peu fourni des transitoires à longue période.
Nous avons également fouillé les anciennes données provenant de la même partie du ciel, mais nous n’avons trouvé aucune trace de l’objet avant sa découverte en 2023. Ceci suggère qu’un événement spectaculaire s’est produit peu avant notre première détection, un événement suffisamment puissant pour « allumer » soudainement notre objet transitoire atypique.
Puis, en février 2024, ASKAP J1832 est devenu extrêmement actif. Après une période calme en janvier, la source s’est considérablement intensifiée : moins de 30 objets dans le ciel ont jamais atteint une telle luminosité dans le domaine radio… À titre de comparaison, la plupart des étoiles que nous détectons en radio sont environ 10000 fois moins lumineuses qu’ASKAP J1832 lors de cette flambée.
Les rayons X sont une forme de lumière que nous ne pouvons pas voir avec nos yeux. Ils proviennent généralement d’environnements extrêmement chauds et énergétiques. Bien qu’une dizaine d’objets similaires émettant des ondes radio (celles que nous avons détectées initialement) aient été découverts à ce jour, personne n’avait jamais observé d’émission X de leur part.
En mars, nous avons tenté d’observer ASKAP J1832 en rayons X. Cependant, en raison de problèmes techniques avec le télescope, l’observation n’a pas pu avoir lieu.
Puis, coup de chance ! En juin, j’ai contacté mon ami Tong Bao, chercheur postdoctoral à l’Institut national italien d’astrophysique, pour vérifier si des observations précédentes aux rayons X avaient capté la source. À notre grande surprise, nous avons trouvé deux observations antérieures provenant de l’observatoire à rayons X Chandra de la Nasa, bien que les données soient encore dans une période de diffusion limitée (et donc non encore rendues publiques en dehors d’un cercle restreint de chercheurs et chercheuses).
Nous avons contacté Kaya Mori, chercheur à l’université Columbia et responsable de ces observations. Il a généreusement partagé les données avec nous. À notre grande surprise, nous avons découvert des signaux X clairs provenant d’ASKAP J1832. Plus remarquable encore : les rayons X suivaient le même cycle de 44 minutes que les impulsions radio.
Ce fut un véritable coup de chance. Chandra était pointé vers une cible complètement différente, mais par pure coïncidence, il a capté ASKAP J1832 pendant sa phase inhabituellement brillante et active.
Un tel alignement fortuit est extrêmement rare, c’est comme trouver une aiguille dans une botte de foin cosmique.
La présence simultanée d’émissions radio et de sursauts X est une caractéristique commune des étoiles mortes dotées de champs magnétiques extrêmement puissants, telles que les étoiles à neutrons (étoiles mortes de grande masse) et les naines blanches (étoiles mortes de faible masse).
Notre découverte suggère qu’au moins certains objets transitoires à longue période pourraient provenir de ce type de vestiges stellaires.
Mais ASKAP J1832 ne correspond à aucune catégorie d’objet connue dans notre galaxie. Son comportement, bien que similaire à certains égards, reste atypique.
Nous avons besoin de plus d’observations pour vraiment comprendre ce qui se passe. Il est possible qu’ASKAP J1832 soit d’une nature entièrement nouvelle pour nous, ou qu’il émette des ondes radio d’une manière que nous n’avons jamais observée auparavant.
Ziteng Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.08.2025 à 19:22
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
*En 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée, elle est pourtant à l’origine de cette découverte majeure. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie. *
« La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. »
Cette phrase de Rosalind Franklin éclaire sa vision singulière : pour elle, la science n’était pas une abstraction, mais un chemin concret vers une meilleure compréhension du monde. Tout au long de sa vie, elle a su allier une rigueur scientifique sans faille à un engagement discret, dans un univers où les femmes peinaient encore à obtenir la reconnaissance qu’elles méritaient.
Ni figure publique ni militante affichée, Rosalind Franklin travaillait dans l’ombre, avec une exigence et une méthode implacables. Et pourtant, c’est grâce à son expertise que la lumière a traversé la molécule d’ADN, révélant sa fameuse forme en double hélice.
À une époque où la place des femmes en science restait fragile, elle imposa sa voie avec précision et détermination, convaincue que la véritable beauté réside dans la structure profonde des choses.
Le 25 juillet 1920, au cœur du quartier londonien de Notting Hill, naît Rosalind Elsie Franklin, deuxième enfant d’une fratrie de cinq. Issue d’une famille juive britannique aisée et cultivée, elle grandit dans un environnement où la rigueur intellectuelle et l’engagement social sont des piliers. Son père, Ellis Arthur Franklin, banquier passionné de physique, rêvait d’être scientifique mais a vu ses ambitions fauchées par la Première Guerre mondiale. Sa mère, Muriel Waley, militait activement pour l’éducation des femmes. Ce mélange d’idéalisme, de savoir et de devoir allait profondément façonner Rosalind.
Dès l’enfance, elle fait preuve d’une intelligence hors norme. À six ans, elle passe ses journées à résoudre des problèmes d’arithmétique, sans jamais faire d’erreur, selon sa tante. À neuf ans, elle se lance un défi personnel : finir chaque semaine première de sa classe. Elle tiendra ce pari pendant deux ans. Déjà se dessine une personnalité exigeante, compétitive et intensément tournée vers la connaissance. Mais dans la société britannique des années 1920, une telle ambition, chez une fille, suscite autant d’admiration que de réticence, dans un contexte où la place des femmes restait largement cantonnée à la sphère domestique.
Rosalind Franklin poursuit ses études au prestigieux St Paul’s Girls’ School, l’un des rares établissements à enseigner les sciences aux jeunes filles. Elle y brille, notamment en physique et en mathématiques. En 1938, elle entre au Newnham College de l’Université de Cambridge, l’un des deux collèges féminins de l’époque. Son choix de se spécialiser en chimie et en physique n’est pas encore courant chez les femmes.
En 1941, en pleine guerre mondiale, elle obtient son diplôme. Tandis que beaucoup de femmes sont orientées vers des rôles d’assistante, Rosalind refuse tout compromis et intègre un laboratoire du British Coal Utilisation Research Association (Association britannique pour la recherche sur l’utilisation du charbon). Elle y étudie la microstructure du charbon par diffraction des rayons X, technique qui deviendra sa spécialité.
Ces recherches, bien que menées dans un contexte de guerre, auront des retombées industrielles majeures, notamment pour la fabrication de masques à gaz et de matériaux isolants.
En 1945, Rosalind Franklin obtient un doctorat de Cambridge – un exploit pour une femme à cette époque. En effet, à cette période, Cambridge ne délivrait pas officiellement de diplômes aux femmes, ce qui rend cet accomplissement d’autant plus remarquable, car Franklin fait partie des premières à obtenir un doctorat dans un contexte universitaire encore très fermé aux femmes.
En 1947, une nouvelle étape marque sa vie : elle rejoint le Laboratoire Central des Services Chimiques de l’État, à Paris, sur invitation de Jacques Mering. Elle y perfectionne ses compétences en cristallographie par rayons X et découvre un environnement de travail plus ouvert, où sa parole est écoutée et ses idées respectées.
Elle se lie d’amitié avec des chercheurs, découvre la culture française, et adopte un mode de vie simple mais libre. Elle parcourt les Alpes à pied, discute dans les bistrots, s’immerge dans la langue et la gastronomie. Elle confiera plus tard :
« Je pourrais vagabonder en France pour toujours. J’adore le pays, les gens et la nourriture. »
Pour une femme qui a toujours ressenti le poids du sexisme britannique, la France offre alors un souffle de liberté. En effet, l’université britannique, en particulier Cambridge et King’s college, reste encore profondément patriarcale : les femmes sont exclues des clubs et réunions informelles et ne reçoivent officiellement des diplômes à Cambridge qu’à partir de 1947.
Mais la science l’appelle ailleurs. En 1951, elle retourne en Angleterre avec une bourse prestigieuse (Turner and Newall Fellowship). Elle rejoint le King’s College de Londres, au département de biophysique, pour travailler sur une mystérieuse molécule encore peu comprise : l’ADN. On sait, depuis Avery (1944), qu’elle joue un rôle dans l’hérédité, et Chargaff (1950) a établi que les bases azotées se répartissent selon des proportions constantes (A=T, G=C), mais la structure tridimensionnelle demeure inconnue. C’est là que son destin scientifique se joue.
Franklin apporte au projet son expertise pointue en diffraction X. En quelques mois, elle améliore considérablement les images de l’ADN, et capture l’une des photographies les plus célèbres de l’histoire de la biologie : le « cliché 51 ». Cette image révèle, avec une clarté inédite, la forme hélicoïdale de la molécule d’ADN. On y voit des taches disposées en forme de X, révélant que la molécule forme une double hélice régulière. L’espacement des taches renseigne sur la distance entre les bases (A, T, C et G), et leur symétrie suggère une structure très ordonnée.
Rosalind Franklin identifie également deux formes distinctes de l’ADN selon l’humidité (forme A et B), et démontre que les groupements phosphate sont orientés vers l’extérieur.
Mais derrière cette réussite, l’ambiance au laboratoire est tendue. Franklin est la seule femme scientifique du département, et ses collègues masculins, notamment Maurice Wilkins, voient son indépendance comme de l’insubordination. En effet, Wilkins pensait que Franlkin arrivait au laboratoire comme assistante sous sa direction. De son côté, Rosalind pensait avoir été recrutée pour diriger ses propres recherches sur l’ADN,de manière indépendante. Cette incompréhension institutionnelle a été exacerbée par une communication défaillante de la part de John Randall, directeur du laboratoire, qui n’a pas informé Wilkins de l’autonomie accordée à Franklin. Wilkins n’a appris cette décision que des années plus tard, ce qui a contribué à des tensions professionnelles. Ce dernier, persuadé qu’elle est son assistante, se heurte à son refus catégorique de toute hiérarchie injustifiée. Leur relation devient glaciale. Dans ce climat conservateur et misogyne, Franklin se heurte à un plafond de verre invisible, mais solide.
C’est dans ce contexte qu’un événement aux lourdes conséquences se produit. Sans son consentement, Wilkins montre le cliché 51 à James Watson, jeune chercheur de Cambridge. Ce dernier, avec Francis Crick, travaille lui aussi sur l’ADN, mais sans données expérimentales directes. En découvrant la photographie, Watson est stupéfait :
« Ma mâchoire s’est ouverte et mon pouls s’est emballé. »
La photographie de Franklin devient la pièce manquante qui leur permet de construire leur célèbre modèle de la double hélice. En avril 1953, trois articles fondamentaux sur l’ADN paraissent dans la revue Nature. Le premier, signé par Watson et Crick, propose le célèbre modèle en double hélice, fondé sur des raisonnements théoriques et des données expérimentales issues d’autres laboratoires – notamment le cliché 51, transmis à leur insu par Maurice Wilkins. Le second article, coécrit par Wilkins, Stokes et Wilson, présente des résultats de diffraction des rayons X qui confirment la présence d’une structure hélicoïdale, en cohérence avec le modèle proposé. Le troisième, rédigé par Rosalind Franklin et Raymond Gosling, expose avec rigueur leurs propres données expérimentales, parmi les plus décisives, mais sans que Franklin ait été informée de leur utilisation préalable par Watson et Crick. Bien que sa contribution soit déterminante, elle n’est mentionnée que brièvement dans les remerciements.
Watson la surnomme plus tard dans ses mémoires « Rosy », un diminutif qu’elle n’a jamais utilisé et qu’elle détestait. Il la décrit comme austère, inflexible, difficile – un portrait injuste qui trahit davantage les préjugés de l’époque que la réalité de sa personne. Ses collègues masculins l’appellent la « Dark Lady » de l’ADN.
Blessée, fatiguée par ce climat toxique, Franklin quitte le King’s College dès la fin 1953. Mais loin d’abandonner, elle rebondit immédiatement.
Elle rejoint alors le Birkbeck College, un établissement de l’Université de Londres situé à Bloomsbury, sur l’invitation du physicien John Bernal qui la qualifie de « brillante expérimentatrice ». Elle y obtient un poste de chercheuse senior, à la tête de son propre groupe de recherche, financé par l’Agricultural Research Council. Là, elle applique ses compétences en diffraction X à un nouveau domaine : les virus. Elle se lance dans l’étude du virus de la mosaïque du tabac, un petit virus végétal très étudié. Avec son équipe, les doctorants Kenneth Holmes et John Finch, le jeune chercheur postdoctoral Aaron Klug, futur prix Nobel, ainsi que l’assistant de recherche James Watt, elle démontre que l’ARN du virus est situé à l’intérieur d’une coque protéique hélicoïdale. Cette découverte est essentielle car elle montre la forme en 3D du virus, explique comment l’ARN est protégé à l’intérieur, et crée les bases pour mieux comprendre les virus. Cela a aidé à progresser dans la recherche pour trouver des traitements contre les infections virales.
Entre 1953 et 1958, elle publie plus de 15 articles majeurs, établissant les bases de la virologie moléculaire. Elle travaille également sur la structure du virus de la polio, en collaboration avec le futur prix Nobel Aaron Klug, récompensé en 1982 pour son développement de la microscopie électronique cristallographique et l’élucidation des complexes biologiques entre acides nucléiques et protéines. Elle est enfin dans un environnement où elle est écoutée, respectée, et même admirée.
Mais en 1956, le destin frappe cruellement. Au cours d’un séjour aux États-Unis, Franklin ressent de fortes douleurs abdominales. Le diagnostic tombe : cancer des ovaires. Elle a 36 ans. La maladie est probablement liée à son exposition répétée aux rayons X, à une époque où les protections étaient rudimentaires, voire absentes.
Malgré plusieurs opérations et de lourds traitements, elle continue de travailler, fidèle à sa discipline et à sa passion. Jusqu’à ses derniers mois, elle écrit, corrige, encourage, dirige. Elle meurt le 16 avril 1958, à l’âge de 37 ans.
Quatre ans après sa mort, en 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée. Officiellement, le prix ne peut être attribué à titre posthume. Officieusement, elle n’a jamais été sérieusement envisagée comme co-lauréate, car son nom ne circulait pas dans les cercles masculins du pouvoir scientifique.
Il faudra attendre les années 1970 pour que sa contribution soit pleinement reconnue. D’abord par Anne Sayre, amie de Franklin, journaliste américaine et amie proche de Franklin rencontrée à Londres dans les années 1950 grâce à leur cercle social commun lié au monde scientifique, qui publie Rosalind Franklin and DNA en 1975 pour rétablir les faits. Puis, bien après, en 2002, avec la biographie The Dark Lady of DNA, écrite par Brenda Maddox et qui rencontre un grand écho international.
Aujourd’hui, son nom est inscrit sur des bâtiments universitaires, des bourses, des prix scientifiques. En 2020, elle est sélectionnée par le magazine Nature parmi les plus grandes scientifiques du XXe siècle. En 2021, la mission spatiale européenne vers Mars, nommée Rosalind Franklin Rover, a été lancée pour chercher des traces de vie passée dans le sous-sol martien. Ce nom rend hommage à Franklin, dont les travaux sur la structure de l’ADN symbolisent la recherche des bases moléculaires du vivant.
Rosalind Franklin, longtemps éclipsée par ses pairs, incarne aujourd’hui bien plus qu’une figure oubliée de la science. Elle est devenue un symbole de ténacité, d’éthique scientifique, et de justice. Une pionnière dont l’éclat posthume inspire chercheuses et chercheurs à persévérer malgré les obstacles, les discriminations et les injustices qu’ils peuvent rencontrer.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.08.2025 à 14:17
Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris - PSL
Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.
Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.
Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.
Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.
Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.
L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.
Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.
Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.
Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).
Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.
L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.
Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.
Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.
Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.
Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.
Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.
Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.
Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.
Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.
L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.
Gabriel Kasmi a reçu des financements de RTE et de l'Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d'une convention Cifre). Il est membre du think tank Zenon.
06.08.2025 à 13:06
Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania
La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !
Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.
Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.
Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.
Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».
Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.
Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.
Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.
En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.
Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.
Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.
Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.
Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.
Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.
Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.
Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.
Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.
Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.
La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.
Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:06
Pierre-Alain Duc, Directeur de recherche au CNRS, directeur de l'Observatoire astronomique de Strasbourg, Université de Strasbourg
L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge.
Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement.
Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois.
La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées.
En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ?
Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies.
Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT).
Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure.
Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.
À lire aussi : Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble
Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres.
Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données.
Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache !
Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable.
L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique.
Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble.
Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut.
La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre.
Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens.
Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie.
Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile.
Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première !
Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:05
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Il fait 32 °C dans votre salon. Vous allumez le ventilateur, et en quelques secondes, une sensation de fraîcheur vous envahit. Pourtant, la température de l’air n’a pas changé. Alors, comment un simple souffle peut-il nous faire croire qu’il fait plus frais ? Pourquoi recommande-t-on aujourd’hui d’y ajouter un brumisateur ?
Ce phénomène, bien plus subtil qu’il n’y paraît, s’explique à l’interface entre physique et biologie au niveau de la peau ; et implique bien sûr notre système nerveux en ce qui concerne la perception sensorielle.
Contrairement à ce qu’on pourrait penser, un ventilateur ne refroidit pas l’air : il se contente de le mettre en mouvement. D’ailleurs, un ventilateur électrique émet un peu de chaleur en raison de son moteur qui convertit l’énergie électrique en chaleur.
Dans une pièce isolée de 1 mètre cube maintenue à -30 °C, un ventilateur peut faire monter la température de 1 °C : on voit bien que l’effet est minime et sans impact sensible dans la plupart des situations.
Ce que le ventilateur modifie, c’est notre perception. Il crée une sensation de fraîcheur, sans réellement baisser la température. Cette impression vient de notre propre corps, qui réagit aux flux d’air en activant ses mécanismes naturels de régulation thermique.
Pour comprendre cette sensation de fraîcheur, il faut donc s’intéresser à la manière dont notre organisme gère sa température interne. Car c’est là, dans les échanges constants entre notre peau, l’air et notre système nerveux, que se joue le vrai mécanisme du rafraîchissement.
En effet, le corps humain fonctionne un peu comme une machine thermique : il produit de la chaleur en permanence (quand on bouge, digère…).
Pour éviter la surchauffe interne, l’organisme active un système de refroidissement très efficace : la transpiration.
Quand vous avez chaud, votre peau libère de la sueur. En s’évaporant, la sueur consomme de l’énergie (qu’on appelle la « chaleur latente de vaporisation ») : elle absorbe de la chaleur de votre corps. La sueur lui vole en quelque sorte des calories, ce qui le refroidit.
Mais ce mécanisme dépend beaucoup des conditions extérieures. Si l’air ambiant est chaud et humide, l’évaporation de la sueur devient moins efficace, car l’air est déjà presque saturé en humidité et est moins susceptible d’absorber celle de votre sueur. Résultat : vous continuez à transpirer, mais sans évaporation efficace, la sueur stagne sur la peau et n’extrait plus de chaleur. Autrement dit, elle ne vole plus les calories à votre peau qui permettraient à votre corps de se refroidir.
C’est là qu’intervient le ventilateur ! En brassant l’air saturé autour de la peau, le ventilateur le remplace par de l’air plus sec, ce qui favorise l’évaporation et aide votre corps à se refroidir.
En complément, l’utilisation d’un brumisateur apporte un refroidissement supplémentaire en projetant de fines gouttelettes d’eau sur la peau.
En ajoutant des gouttelettes, on augmente la quantité d’eau disponible pour l’évaporation, ce qui permet d’extraire davantage de chaleur de la peau et d’intensifier le refroidissement.
L’association du brumisateur et du ventilateur optimise le confort thermique dans les climats chauds en maximisant l’évaporation. En revanche, lorsque l’air est très humide et saturé de vapeur d’eau, ce mécanisme est inefficace, car l’évaporation est limitée.
Ainsi, le brumisateur est particulièrement performant dans les environnements secs, où l’air peut absorber facilement l’humidité, tandis que le ventilateur favorise le renouvellement de l’air humide autour de la peau, évitant ainsi la saturation locale et maintenant un gradient favorable à l’évaporation.
Mais ce n’est pas tout. Même sans sueur, votre corps transfère de la chaleur à l’air ambiant : c’est la convection.
Cela signifie que l’air en contact avec votre peau se réchauffe légèrement. Quand l’air est immobile, cette couche d’air chaud reste collée à la peau comme une fine couverture.
En mettant l’air en mouvement, le ventilateur dissipe la fine couche d’air chaud qui entoure votre peau. Cela permet à la chaleur d’être évacuée plus rapidement, ce qui provoque une sensation quasi immédiate de fraîcheur.
Plus précisément, des chercheurs ont montré que, lorsque la vitesse de l’air augmente, l’évaporation de la sueur peut croître de près de 30 % pour une vitesse d’air de 2 mètres par seconde (ce qui équivaut à environ 7 kilomètres par heure). Parallèlement, la perte de chaleur par convection s’intensifie également grâce au renouvellement constant de l’air chaud proche de la peau.
Ce phénomène s’appelle l’« effet de refroidissement éolien », ou wind chill. Il explique pourquoi, en hiver, un vent fort peut vous faire ressentir un froid bien plus intense que la température réelle : par exemple, un 0 °C accompagné de vent peut être perçu comme -10 °C, car votre corps perd sa chaleur plus vite.
En été, c’est le même principe : le souffle du ventilateur ne fait pas baisser la température de la pièce, mais il favorise la perte de chaleur corporelle, donnant l’illusion que l’air ambiant est plus frais. C’est une température ressentie plus basse, pas une température réelle.
Un ventilateur est donc bien un allié optimal. Il n’abaisse pas la température de l’air, mais accélère la perte de chaleur de votre corps. Il facilite ainsi vos mécanismes naturels de refroidissement tels que l’évaporation de la sueur, la convection de la chaleur, la perception sensorielle de l’air en mouvement.
En réalité, l’air reste à la même température : c’est vous qui refroidissez plus vite… et votre cerveau traduit cette perte de chaleur par une agréable sensation de fraîcheur !
À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température
Ce processus n’est pas trivial. Il repose sur une interaction complexe entre des récepteurs sensoriels situés dans la peau et des régions spécifiques du cerveau, notamment le cortex insulaire postérieur. Ces récepteurs détectent les variations de température corporelle et transmettent ces informations au cerveau, qui les intègre pour générer une sensation consciente de fraîcheur.
Ainsi, ce que vous ressentez comme une fraîcheur agréable est en réalité une perception cérébrale fine et sophistiquée de la baisse réelle de la température de votre corps.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.08.2025 à 16:57
David Brutin, Enseignant-chercheur, Aix-Marseille Université (AMU)
Dans les enquêtes criminelles, chaque détail compte. Une trace de sang, l’angle d’un impact, la position d’un corps : tous ces éléments peuvent changer la compréhension d’une scène de crime. Pourtant, malgré les avancées technologiques en matière de criminalistique, les enquêteurs, les magistrats ou les jurés restent encore trop souvent confrontés à des difficultés majeures (difficile représentation d’une scène 3D pour les jurés, scène de crime originelle altérée, impossibilité de reconstitution) lorsqu’il s’agit de reconstituer des faits sanglants, par nature complexes.
C’est ce constat qui a conduit à la naissance du projet iCRIME, que je porte, un programme de recherche pluridisciplinaire financé par l’Agence nationale de la recherche (ANR), visant à transformer notre manière d’aborder les scènes de crime sanglantes grâce aux outils de la simulation numérique et de la réalité virtuelle.
Dans le cadre d’une enquête judiciaire, la scène de crime joue un rôle fondamental. C’est là que débute la construction du récit des événements. Mais cette scène, par nature éphémère, est rapidement figée, nettoyée, voire détruite. La fixation de la scène, quand cela est considéré comme nécessaire par le magistrat, est réalisée par la prise de photographies éventuellement complétées par un nuage de points dans l’espace captés par une technologie de télédétection qui utilise un laser.
Lors des procès, les magistrats doivent alors se baser sur des plans en deux dimensions, des photos ou des témoignages, souvent incomplets, pour comprendre ce qui s’est passé. Ce manque de lisibilité nuit parfois à l’analyse objective des faits, en particulier dans les affaires complexes où plusieurs versions s’opposent.
De plus, les reconstitutions judiciaires sont coûteuses, difficiles à organiser et peuvent être biaisées par l’environnement dans lequel elles se déroulent (lieux différents, conditions lumineuses éloignées de la réalité, impossibilité de reproduire des gestes avec précision, etc.). Ces limites sont connues de longue date par les acteurs de la justice.
Mais comment faire évoluer les pratiques tout en garantissant la rigueur scientifique et le respect du droit ? C’est à cette question qu’a voulu répondre iCRIME.
Notre projet est né d’une collaboration entre chercheurs, magistrats et acteurs des forces de sécurité intérieure. L’objectif est simple : mettre au service de la justice des outils immersifs et interactifs permettant de mieux comprendre les scènes de crime et les dynamiques d’événements.
iCRIME repose sur le traitement automatisé de quantités de données massives issues de l’archivage des scènes de crimes puis de leur restitution en réalité virtuelle. La simulation physique et dynamique des scènes de crimes est également ajoutée à iCRIME, c’est-à-dire la modélisation des comportements des corps, des projectiles, des fluides et des interactions entre objets dans un espace 3D réaliste.
D’ores et déjà, iCRIME propose de s’immerger dans un environnement virtuel en présence d’un avatar qu’il est possible de poignarder. La trajectoire des gouttes de sang résultantes est visualisée en direct et les impacts de gouttes de sang sur le sol ou sur les murs sont fidèles aux équations de la mécanique des fluides. Notre outil permet également d’effectuer le calcul inverse du point d’origine sur la base de taches de sang permettant ainsi de confronter différentes hypothèses sur la position de l’avatar.
À terme, iCRIME proposera une immersion en réalité virtuelle dans des scènes de crime ensanglantées fidèlement modélisées. Grâce à un casque de réalité virtuelle, les utilisateurs peuvent déjà se déplacer librement dans un environnement numérique qui reproduit les lieux à l’identique. Cette immersion permettra une exploration intuitive, une meilleure appropriation de l’espace et une interaction directe avec les éléments de preuve. iCRIME ne se contentera pas de montrer une scène figée : il permettra d’analyser les hypothèses, de comparer plusieurs versions des faits et d’en débattre dans un espace partagé, que l’on soit enquêteur, expert, avocat ou magistrat. iCRIME permettra de « faire parler » la scène de crime.
Notre apport majeur réside dans notre capacité à simuler numériquement les événements via des modèles physiques élaborés par des chercheurs. Qu’il s’agisse d’un mouvement de corps ou de la dispersion de gouttelettes de sang, iCRIME repose sur des modèles physiques issus de la recherche expérimentale. Ces modèles validés, par des protocoles expérimentaux, permettront de confronter les différentes versions des faits par une analyse objective. Concrètement, cela signifie que l’on peut déjà reproduire une projection de sang depuis un point donné, analyser la trajectoire de la goutte, sa vitesse, son interaction avec des obstacles ou des surfaces.
Quand iCRIME sera certifié, il sera ainsi possible de vérifier si une version des faits est compatible avec les traces observées.
Cette approche ne se substitue pas à l’enquête, mais elle enrichit l’analyse en objectivant certaines hypothèses. La robustesse scientifique est au cœur du projet. Chaque simulation peut être paramétrée, rejouée, comparée, et surtout, elle laisse une trace : on peut documenter ce qui a été testé, selon quelles hypothèses, et avec quels résultats. C’est un outil au service de la transparence et de la contradiction, deux piliers du procès équitable.
iCRIME est certes encore en cours de développement, mais plusieurs usages sont d’ores et déjà envisagés. Par exemple, son utilisation dans ce que l’on appelle les « Cold Case » pour immerger un témoin, un suspect ou un mis en cause dans une scène de crime ancienne qui existerait toujours et qui serait reconstituée fidèlement en réalité virtuelle. iCRIME permettra ainsi de plonger une personne dans l’environnement pour lui faire évoquer des souvenirs ou des ressentis. Des images ou des sons pourront être joués pour favoriser la remontée de souvenirs afin d’aider à faire avancer une ancienne enquête. Les magistrats et les professionnels du droit voient clairement dans ces outils un levier pour renforcer la compréhension des affaires complexes.
Mais l’introduction de ces technologies dans la justice ne va pas sans débats : quel statut juridique accorder à une simulation même ouverte au contradictoire ? Comment éviter l’effet de persuasion que peut produire une scène immersive ? Quelle formation pour les magistrats, les avocats et les jurés ?
Autant de questions auxquelles notre projet tente de répondre. Son ambition n’est pas de trancher à la place du juge, mais de donner des clés de lecture plus fiables et rigoureuses. En cela, iCRIME s’inscrit dans une démarche de justice augmentée : une justice qui utilise les technologies non pour impressionner, mais pour éclairer.
David Brutin est le coordinateur d’un projet de recherche sur les technologies immersives au service des acteurs de la justice pénale, iCrime, soutenu par l’Agence nationale de la recherche ANR. Il a présenté ce projet au workshop interdisciplinaire pour la sécurité globale qui s’est déroulé les 26 et 27 mars 2025 à Paris-Saclay.
David Brutin a reçu des financements de l'ANR.
04.08.2025 à 16:24
Lauriane Soret, Planétologue, Université de Liège
Sur la planète Mars, il y a des lumières qui dansent dans la nuit, un peu comme les aurores boréales sur Terre. On peut aujourd’hui les observer dans différentes couleurs, depuis l’orbite ou à la surface de la planète rouge… et vert, donc.
Mars, la planète rouge, n’est finalement pas uniquement rouge.
Durant la nuit, la planète se pare de lumières vertes, certaines semblables aux aurores boréales ou australes se produisant sur Terre. Ces lueurs sont si intenses qu’elles pourraient être observées à l’œil nu par de futurs astronautes en orbite ou à la surface de Mars. Mais outre les aurores, les astronautes pourront également voir un autre phénomène lumineux nocturne appelé « nightglow », ce que l’on pourrait traduire par « lueur nocturne ».
Aurores et lueurs nocturnes martiennes étaient bien connues dans l’ultraviolet et l’infrarouge, principalement grâce aux missions Mars Express (depuis 2003) et MAVEN (depuis 2013). Mais c’est depuis 2023 seulement que nous avons pu les détecter dans le domaine du visible, grâce à la mission ExoMars de l’Agence spatiale européenne (ESA) et aux observations du rover Perseverance de la NASA.
Ces observations ouvrent la voie à de futures études avec des instruments conçus dans le domaine de visible, plus simples, plus légers et moins onéreux que ceux conçus pour observer les ultraviolets. En particulier, le nightglow doit nous apprendre davantage sur la dynamique et de la composition de l’atmosphère martienne ; tandis que les aurores nous renseignent sur les interactions entre le vent solaire et la planète rouge… et vert.
Même si ces deux types d’émission lumineuse, aurore et nightglow, produisent des lueurs dans l’atmosphère, les processus en jeu sont complètement différents.
Les aurores sont le résultat de l’interaction de particules énergétiques venant de l’espace avec les atomes ou molécules de l’atmosphère neutre de la planète, par exemple l’azote ou l’oxygène sur Terre, et le CO2 sur Mars. Sur Terre, les aurores se forment près des pôles, car c’est là que convergent les lignes du champ magnétique terrestre que suivent les électrons du vent solaire.
Mais sur Mars, la réalité est bien plus complexe, car le noyau de la planète Mars ne génère pas de champ magnétique comme celui de la planète Terre. C’est d’ailleurs pour cette raison que la communauté scientifique ne s’attendait pas à trouver d’aurores dans l’atmosphère martienne, jusqu’à la découverte d’émissions aurorales ultraviolettes, en 2005, avec l’instrument SPICAM de Mars Express (ESA).
À lire aussi : D’où viennent les aurores boréales, et pourquoi sont-elles si différentes sur Jupiter?
Le nightglow se forme différemment, par une suite de réactions « photochimiques ». Du côté de la planète où il fait jour, les molécules naturellement présentes dans l’atmosphère sont dissociées par les photons émis par le Soleil. Par exemple, les photons peuvent casser une molécule de CO2 en atomes de carbone et d’oxygène. Les atomes nouvellement créés sont transportés par la circulation atmosphérique provoquée par une différence de température, vers le côté nuit, où il fait beaucoup plus froid. Les atomes se recombinent alors pour reformer une molécule. La molécule se trouve cette fois dans un état excité : elle va émettre de la lumière à une longueur d’onde caractéristique en revenant à son état fondamental. C’est cette émission que l’on appelle nightglow.
Les sources de ces émissions lumineuses (aurores et nightglow) étant différentes, elles nous permettent d’étudier différents paramètres de l’atmosphère, à différents endroits et différentes altitudes de l’atmosphère.
Grâce à l’instrument SPICAM de Mars Express, notre équipe a pu observer une vingtaine d’aurores sur Mars. Toutes se situaient aux endroits où le champ magnétique résiduel piégé dans la roche à la surface de Mars est le plus fort – une région s’étend principalement dans l’hémisphère Sud, entre 120° et 250° de longitude.
À cet endroit, les lignes de champ magnétique forment des arcs qui agissent comme des boucliers contre les particules énergétiques, un peu comme un mini champ magnétique terrestre.
Entre deux arcades, les lignes de champ sont ouvertes et forment des sortes de canyons, dans lesquels les électrons venant du vent solaire se précipitent et interagissent avec les atomes et molécules neutres de l’atmosphère, principalement dioxyde de carbone et oxygène. Ces atomes et molécules se retrouvent alors dans un état excité instable et, lorsqu’ils se désexcitent pour retrouver dans leur état fondamental, émettent des photons à des longueurs d’onde bien caractéristiques. C’est ainsi que l’on trouvera principalement des émissions de monoxyde de carbone (CO), dioxyde de carbone ionisé (CO2+) et oxygène (O) dans l’ultraviolet et des émissions d’oxygène dans l’ultraviolet lointain. Ces émissions se produisent à environ 135 kilomètres d’altitude.
Depuis 2013, grâce aux instruments IUVS de la mission MAVEN de la NASA et EMUS à bord d’Emirates Mars Mission bien plus sensibles que SPICAM, nous sommes constamment surpris !
En effet, nous savons désormais que des émissions aurorales se produisent également en dehors de la zone de fort champ magnétique résiduel. Elles sont moins intenses, mais beaucoup plus fréquentes dans l’hémisphère Nord, par exemple.
D’autres types d’aurores ont également été observés : des aurores sinueuses, avec une forme de serpent dont la longueur peut couvrir tout un hémisphère en se déplaçant très rapidement, ou encore des aurores diffuses qui peuvent recouvrir toute la face nocturne de la planète ! Ces aurores diffuses se produisent plus bas en altitude, à environ 60 kilomètres à 80 kilomètres. Elles se produisent assez rarement car elles nécessitent la présence d’évènements SEP (pour Solar Energetic Particle) durant lesquels les particules émises par le Soleil, principalement des protons, se retrouvent fortement accélérées.
Aurores et activité solaire sont donc intimement liées. Les aurores martiennes peuvent avoir, comme sur Terre, des endroits de formation privilégiés, mais sont globalement très variables et assez difficilement prévisibles.
Nous savons que l’une des émissions aurorales précédemment observées dans l’UV (les atomes d’oxygène excités émettant à 297 nanomètres) possède une contrepartie dans le domaine du visible – il s’agit de la raie de l’oxygène à 557 nanomètres, qui donne sa couleur verte aux aurores terrestres. Cette composante devrait également être observable dans l’atmosphère martienne.
Et c’est l’exploit qu’a réalisé l’équipe du rover Perseverance en détectant la première aurore visible dans le ciel martien en mars 2024. L’équipe a guetté l’apparition d’évènements SEP au niveau du Soleil pour commander à distance au rover d’observer le ciel durant les nuits correspondantes. Une stratégie fructueuse, puisque l’émission à 557 nanomètres a été détectée par le spectromètre de Perseverance ! C’est donc la première fois qu’une image d’une aurore a été prise depuis le sol d’une planète autre que celui de la Terre.
L’intensité de cet évènement aurait probablement été trop faible pour pouvoir être perceptible par un œil humain, mais d’autres aurores, plus intenses, pourraient tout à fait être détectées à l’œil nu par de futurs astronautes à la surface ou en orbite autour de Mars.
Dans le cas de Mars, les photons émis par le Soleil interagissent avec les molécules de CO2 majoritairement présentes dans l’atmosphère martienne (~96 %), principalement au niveau du pôle d’été, éclairé et échauffé par le Soleil.
Les molécules de CO2 sont alors dissociées et les atomes d’oxygène sont transportés vers le pôle d’hiver plongé dans la nuit et le froid, par ce que l’on appelle la circulation été-hiver. Là, les atomes d’oxygène se recombinent pour former une molécule de O2 dans un état excité, qui émet alors une émission lumineuse à une longueur d’onde caractéristique en retournant à son état fondamental. C’est cette émission, que l’on observe dans la nuit polaire martienne d’hiver, que l’on appelle nightglow.
Ce nightglow a d’abord été observé dans l’infrarouge, à 1,27 micromètre, à partir de l’orbite martienne, par la mission MRO (pour Mars Reconnaissance Orbiter), lancée en 2005, par la NASA.
Mais c’est en 2023 que cette émission de l’oxygène a été observée pour la toute première fois dans le domaine du visible, à environ 50 kilomètres d’altitude. Contrairement aux aurores, variables et difficilement prévisibles, le nightglow est très homogène dans le temps et dans l’espace.
De plus, son intensité est telle que de futurs astronautes n’auraient aucune difficulté à observer un ciel vert au-dessus du pôle d’hiver lors d’une belle nuit étoilée.
Grâce à ces avancées majeures dans le domaine du visible, nous savons désormais qu’il nous est possible de continuer d’étudier l’atmosphère de Mars en utilisant des instruments plus simples, plus légers et moins onéreux en utilisant le domaine visible plutôt que celui de l’ultraviolet.
C’est ce que nous voulons faire avec la caméra aurorale M-AC à bord de M-MATISSE, une mission que nous avons proposée à l’Agence spatiale européenne (ESA) et qui est actuellement en phase de sélection. Deux orbiteurs emporteraient à leur bord différents instruments pour analyser l’environnement de Mars, ainsi qu’une caméra avec un filtre pour observer les émissions vertes autour de 557 nanomètres.
Grâce à M-AC, nous pourrions photographier et prendre des vidéos des aurores martiennes avec une résolution et une sensibilité jamais atteintes auparavant. Si elle est acceptée par l’ESA, cette mission devrait être lancée en 2037 en direction de la planète rouge… et vert !
Lauriane Soret a reçu des financements du F.R.S.-FNRS.