LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

09.07.2025 à 09:56

Pourquoi avons-nous un coccyx et pas une queue ?

Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

L’absence de queue chez l’humain et les grands singes constitue une des évolutions anatomiques les plus intrigantes.
Texte intégral (1541 mots)
Nous faisons partie d'une des très rares espèces de mammifères à ne pas avoir de queue. Harshit Suryawanshi/Unsplash, CC BY

L’absence de queue chez l’humain et les grands singes constitue une des évolutions anatomiques les plus intrigantes. La majorité des mammifères arbore une queue fonctionnelle mais les hominoïdes (humains, gorilles, chimpanzés, etc.) ne possèdent qu’un vestige : le coccyx.


Cette particularité peut paraître d’autant plus surprenante qu’il est possible de voir une queue sur l’embryon humain. Tous les embryons humains développent temporairement une queue entre la quatrième et la huitième semaine de gestation, qui disparaît bien avant la naissance. Des travaux en génétique révèlent les mécanismes moléculaires à l’origine de la perte de la queue.

Des traces virales dans l’ADN humain

L’ADN conserve dans ses séquences la mémoire des grandes transitions et des bouleversements qui ont façonné la vie au fil du temps, où chaque fragment d’ADN raconte une étape de notre histoire biologique.

De 8 à 10 % du génome humain provient de virus anciens qui ont infecté nos ancêtres il y a des millions d’années. Par exemple, les rétrovirus endogènes sont les vestiges de virus ancestraux qui se sont intégrés dans l’ADN et ont été transmis de génération en génération. Certaines de ces séquences virales ont longtemps été considérées comme de l’« ADN poubelle ». Cet ADN poubelle désigne l’ensemble des séquences du génome qui ne codent pas pour des protéines et dont la fonction biologique était initialement jugée inexistante ou inutile. En réalité, certains de ces virus ont joué des rôles clés dans notre biologie, notamment lors du développement embryonnaire. Ils ont par exemple permis la formation du placenta via l’expression de protéines nécessaire au développement et au fonctionnement de cet organe.

D’autres éléments viraux, appelés gènes sauteurs ou éléments transposables qui sont des séquences d’ADN mobiles capables de se déplacer ou de se copier dans le génome, influencent l’expression des gènes voisins. Ces éléments régulent par exemple des gènes clés lors du développement embryonnaire des organes reproducteurs chez la souris, en s’activant de manière spécifique selon le sexe et le stade de développement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une insertion virale à l’origine de la perte de la queue

Il y a 25 millions d’années, un élément transposable s’est inséré dans le gène TBXT des ancêtres hominoïdes. Le gène TBXT (ou Brachyury) joue un rôle central dans la formation de la chorde, une structure embryonnaire essentielle au développement de la colonne vertébrale et de l’axe corporel. Chez les vertébrés, ce gène régule la différenciation des cellules qui donneront naissance aux muscles, aux os et au système circulatoire. Des mutations de TBXT ont été identifiées chez des animaux à queue courte ou absente, comme le chat Manx et des moutons développant des anomalies vertébrales. Chez l’humain, des mutations de TBXT sont liées à des malformations comme le spina bifida. Ces malformations touchent le développement de la colonne vertébrale et de la moelle épinière : les vertèbres ne se referment pas complètement dans leur partie dorsale autour de la moelle, laissant parfois une partie du tissu nerveux exposé.

Articulé avec le sacrum, le coccyx est une pièce osseuse située à l’extrémité inférieure de la colonne vertébrale, qui constitue donc un vestige de la queue des mammifères. La mutation de TBXT altérerait la conformation de la protéine, perturbant ses interactions avec des voies de signalisation moléculaire qui régulent par exemple la prolifération cellulaire et la formation des structures à l’origine des vertèbres. L’introduction chez la souris d’une mutation du gène TBXT identique à celles dans la nature a permis d’observer des animaux à queue courte et dont le développement embryonnaire est perturbé (6 % des embryons développent des anomalies similaires au spina bifida). L’étude montre que la mutation TBXT modifie l’activité de plusieurs gènes de la voie Wnt, essentiels à la formation normale de la colonne vertébrale. Des expériences sur souris montrent que l’expression simultanée de la forme complète et de la forme tronquée du produit du gène induit une absence totale de queue ou une queue raccourcie, selon leur ratio.

Ces travaux expliquent pourquoi les humains et les grands singes ont un coccyx au lieu d’une queue fonctionnelle. L’insertion de cette séquence d’ADN mobile, ou élément transposable, a agi comme un interrupteur génétique : elle désactive partiellement TBXT, stoppant le développement de la queue tout en permettant la formation du coccyx.

Un compromis évolutif coûteux ?

La perte de la queue a marqué un tournant évolutif majeur pour les hominoïdes. En modifiant le centre de gravité, elle aurait facilité l’émergence de la bipédie, permettant à nos ancêtres de libérer leurs mains pour manipuler des outils ou porter de la nourriture. Mais cette adaptation s’est accompagnée d’un risque accru de malformations congénitales, comme le spina bifida, qui touche environ 1 naissance sur 1 000.

Si des mutations du gène TBXT sont impliquées, d’autres facteurs de risques ont été aussi identifiés, comme les carences nutritionnelles (un manque d’acide folique (vitamine B9) chez la mère), la prise de médicaments anti-épileptiques (valproate), le diabète, l’obésité, les modes de vie liés à la consommation de tabac ou d’alcool. Plus récemment, une étude a montré qu’une exposition élevée aux particules PM10 (particules inférieures à 10 microns) pendant la grossesse augmente le risque de 50 % à 100 % le développement d’un spina bifida.

Ces résultats illustrent une forme de compromis évolutif : la disparition de la queue, avantageuse pour la bipédie, a été favorisée tandis qu’un risque accru de malformations vertébrales est resté « tolérable ». Aujourd’hui, le coccyx incarne ce paradoxe d’un avantage conservé au prix de la vulnérabilité : utile pour fixer des muscles essentiels à la posture et à la continence (soutien du plancher pelvien), il reste un vestige « fragile ». Les chutes peuvent le fracturer.

En conclusion, le coccyx des hominoïdes illustre un paradoxe évolutif : une mutation virale ancienne a sculpté leurs anatomies, mais a aussi créé des vulnérabilités. Des fragments d’ADN, venus de virus anciens, sont devenus au fil de l’évolution des rouages essentiels du développement embryonnaire : ils accélèrent la croissance, coordonnent la spécialisation des cellules et régulent l’expression des gènes au moment opportun.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.07.2025 à 15:37

Des pistes pour une IA digne de confiance : mélanger expertises humaines et apprentissage automatique

Elodie Chanthery, maîtresse de conférences en diagnostic de fautes - IA hybride, INSA Toulouse

Philippe Leleux, Maître de conférence en IA digne de confiance, INSA Toulouse

Peut-on faire confiance à un algorithme d'IA dont les décisions ne sont pas explicables ? Quand il s’agit de diagnostiquer une maladie ou de prédire une panne sur un train ou une voiture, la réponse est évidemment non.
Texte intégral (2102 mots)

Peut-on faire confiance à un algorithme d’IA dont les décisions ne sont pas interprétables ? Quand il s’agit de diagnostiquer une maladie ou de prédire une panne sur un train ou une voiture, la réponse est évidemment non.

L’intelligence artificielle hybride se positionne comme une réponse naturelle et efficace aux exigences croissantes d’interprétabilité, de robustesse et de performance.

En conciliant données et connaissances, apprentissage et raisonnement, ces approches ouvrent la voie à une nouvelle génération de systèmes intelligents, capables de comprendre — et de faire comprendre — le comportement de systèmes physiques complexes. Une direction incontournable pour une IA de confiance.


Les algorithmes d’IA s’immiscent de plus en plus dans les systèmes critiques — transport, énergie, santé, industrie, etc. Dans ces domaines, une erreur peut avoir des conséquences graves — et un problème majeur de la plupart des systèmes d’IA actuels est qu’ils ne sont pas capables d’expliquer leurs conclusions et qu’il est donc difficile pour leurs superviseurs humains de rectifier le système s’il commet une erreur.

Considérons par exemple la maintenance des roulements d’un train. Si un modèle d’IA indique la nécessité d’une réparation sans donner d’explication, le technicien en charge ne sait pas si l’alerte est justifiée, ni quoi réparer ou remplacer exactement. Celui-ci peut alors être amené à ignorer l’alerte pour éviter des arrêts ou des réparations inutiles, ce qui peut avoir des conséquences critiques. Pour ces raisons, la nouvelle loi européenne sur l’IA — le AI Act — introduit des exigences de transparence et de supervision humaine.


À lire aussi : L’AI Act, ou comment encadrer les systèmes d’IA en Europe



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Pour concevoir des solutions à la fois performantes, robustes et interprétables (compréhensibles) par des humains, les approches d’IA dites « hybrides » proposent une voie prometteuse.

Il s’agit de combiner les méthodes d’apprentissage à partir des données (l’IA) avec des modèles basés sur les connaissances des experts du domaine concerné (par exemple des procédures de tests habituellement utilisées par les techniciens de maintenance des trains).

Première option : apprendre à partir des données pour enrichir les modèles experts

Une première approche hybride consiste à utiliser l’apprentissage automatique, non pas comme une fin en soi, mais comme un outil pour construire ou ajuster des modèles basés sur des connaissances physiques ou structurelles du système.

Par exemple, dans le suivi de patients épileptiques, des modèles physiques existent pour décrire les activités cérébrales normale et pathologique. Cependant, l’analyse de signaux d’électroencéphalogrammes par apprentissage automatique permet d’identifier des motifs annonciateurs de crises d’épilepsie que les modèles des experts ne prévoient pas. Ici, l’IA vient compléter la connaissance médicale avec des analyses pouvant prendre en compte l’évolution de la maladie spécifique à chaque patient.

On dit que l’apprentissage du système d’IA est « guidé » par des analyses de diagnosticabilité, c’est-à-dire la capacité à identifier précisément un état anormal grâce aux observations.

Un autre exemple concret : le modèle d’un moteur électrique enrichi avec l’IA hybride peut combiner un premier modèle représentant le comportement nominal du moteur sous forme d’équations de la physique, complété avec des comportements appris grâce aux données mesurées. On peut ainsi découvrir des comportements anormaux comme des petits glissements intermittents du rotor dus à une usure progressive des roulements.

On voit que cette combinaison permet à la fois de profiter de la rigueur du modèle physique et de la flexibilité de l’apprentissage automatique.

Deuxième option : Injecter directement des « règles » dans les modèles d’IA

Une autre voie d’hybridation consiste à intégrer directement des connaissances expertes dans les algorithmes d’apprentissage. Ainsi, on rend l’approche d’IA « interprétable » (dans le sens où le résultat peut être compris et expliqué par un humain). Par exemple, on peut guider un arbre de décision avec des règles inspirées de la physique ou du raisonnement humain.

Qu'est-ce qu'un arbre de décision ?

  • Un arbre de décision est un modèle d'apprentissage automatique qui permet de prendre des décisions en suivant une structure arborescente de règles successives basées sur les caractéristiques des données (par exemple les questions successives: “la température du patient est-elle supérieure 38,5°C ?” suivi de “le patient a-t-il du mal à respirer ?”).
  • À chaque noeud, une condition est testée, et selon la réponse (oui ou non), on progresse sur une branche.
  • Le processus se poursuit jusqu'à une “feuille” de l'arbre, qui donne la prédiction sous forme de valeur, ou une décision finale (“le patient a la grippe”).

En utilisant des arbres de décision dans les algorithmes d’IA, on peut dévoiler des « tests de diagnostic » adéquats que l’on ne connaissait pas encore.

Un exemple de test de diagnostic simple est de regarder la différence entre l’état d’un interrupteur et l’état de la lampe associée (la lampe ne s’allume que si la position de l’interrupteur est sur ON. Si l’on constate que l’interrupteur est sur ON mais que la lampe est éteinte, il y a un problème ; de même si l’interrupteur est OFF et la lampe est allumée). Ce genre de relation, égale à 0 quand le système fonctionne de manière nominale et différente de 0 quand il y a un problème, existe également pour le diagnostic de systèmes plus complexes. La seule différence est que la relation est mathématiquement plus complexe, et qu’elle fait intervenir plus de variables — si le test de diagnostic de notre système « interrupteur+ampoule » est simple, ces tests sont souvent plus difficiles à concevoir.

Ainsi, en IA, si on insère des arbres de décision où on force les règles à être des tests de diagnostic — sans connaître le test spécifique au préalable — on peut :

  • découvrir un test de diagnostic adéquat de manière automatique et sans expertise humaine,

  • faire en sorte que l’algorithme d’IA résultant soit plus facilement interprétable.

Troisième option : rendre les réseaux de neurones moins obscurs

Les réseaux de neurones sont très performants mais critiqués pour leur opacité. Pour y remédier, on peut injecter des connaissances expertes dans leur structure, notamment via par exemple les Graph Neural Networks (GNN).

Qu'est-ce qu'un réseau de neurones en graphes (Graph Neural Network (GNN)) ?

  • Un Graph Neural Network (GNN) est un modèle d'apprentissage automatique conçu pour traiter des données avec des relations explicites entre éléments, comme dans un réseau social ou une molécule. Contrairement aux réseaux de neurones classiques, qui supposent des données organisées en tableaux ou séquences, les GNN exploitent la structure d'un graphe: des noeuds (par exemple les individus dans un réseau social) et les liens entre ces noeuds (les liens entre les individus).
  • Chaque noeud apprend en échangeant de l'information avec ses voisins via le graphe. Cela permet de capturer des dépendances locales et globales dans des systèmes connectés.
  • Les GNN, c'est l'IA qui comprend les relations, pas juste les valeurs.

Contrairement aux architectures classiques, les GNN sont conçus pour traiter des données structurées sous forme de graphes, ce qui les rend particulièrement adaptés pour tirer parti des modèles de systèmes physiques complexes.

Par exemple, dans le cas d’une carte électronique, la structure du circuit — c’est-à-dire les connexions entre composants, la topologie des pistes, etc. — peut être représentée sous forme de graphe. Chaque nœud du graphe représente un composant (résistance, condensateur, circuit intégré…), et les arêtes traduisent les connexions physiques ou fonctionnelles.

En entraînant un GNN sur ces graphes enrichis de données mesurées (tensions, courants, températures), on peut non seulement détecter des anomalies, mais aussi localiser leur origine et comprendre leur cause probable, grâce à la structure même du modèle.

Cette approche améliore l’explicabilité des diagnostics produits : une anomalie n’est plus simplement un signal aberrant détecté statistiquement, mais peut être reliée à un ensemble de composants spécifiques, ou à une zone fonctionnelle de la carte. Le GNN agit ainsi comme un pont entre la complexité des réseaux de neurones et l’intelligibilité du comportement physique du système.

Quatrième option : croiser les sources pour un diagnostic fiable

Enfin, les méthodes de fusion permettent de combiner plusieurs sources d’information (modèles, données, indicateurs) en un diagnostic unifié. Ces méthodes s’avèrent particulièrement utiles lorsque les différentes sources d’information sont complémentaires ou redondantes.

Un exemple d’application : fusionner les résultats de diagnostic issus d’un modèle basé sur la physique et de modèles issus de méthodes d’apprentissage permet d’obtenir une estimation plus robuste de l’état de santé d’un composant, en tirant profit à la fois de la fiabilité de la modélisation physique et de la sensibilité des approches basées données.

C’est aussi exactement ce qui est fait en médecine lorsqu’on confronte les résultats d’un diagnostic médical obtenu par une équipe de médecins, dont les avis peuvent diverger, ajouté à des méthodes d’aide à la décision automatisées nourries par des données (diagnostics déjà existants, base de données patients, etc.).


Le programme « Investir pour l’avenir – PIA3 » ANR-19-PI3A-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Elodie Chanthery a reçu des financements d'ANITI dans le cadre du programme français « Investir pour l'avenir - PIA3 » sous le numéro de convention ANR-19-PI3A- 0004. Elle est membre d'ANITI (Artificial and Natural Intelligence Toulouse Institute).

Philippe Leleux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.07.2025 à 19:40

5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine

Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. Pourquoi sont-ils arrivés si tardivement sur ce continent et comment la colonisation a-t-elle bouleversé leur évolution ?
Texte intégral (2837 mots)
On retrouve la trace d'un lien direct avec les chiens du Mexique ancien uniquement chez les chihuahuas. Nic Berlin / Unsplash, CC BY

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. En mettant au jour de nombreux fossiles, les scientifiques ont montré une arrivée très tardive sur ce continent par rapport aux autres et une évolution bouleversée par la colonisation européenne.


Parmi tous les animaux élevés et domestiqués par l’humain, le chien est celui avec lequel nous partageons la plus longue relation, avec des indices de soins et d’inhumation volontaire remontant au moins à 14 000 ans. Mais s’il existe un lien avéré entre les sociétés de chasseurs-cueilleurs du début de l’Holocène, il y a moins de 12 000 ans, et les chiens dans de nombreuses régions du monde, il en est d’autres où ils arrivent bien plus tard.

C’est le cas notamment de l’Amérique centrale et de l’Amérique du Sud, où les plus anciens squelettes de chiens ne datent que d’il y a 5000 à 5500 ans. Or on trouve déjà des chiens en Amérique du Nord il y a près de 10 000 ans en Alaska et plus de 8000 ans dans l’Illinois. Pourquoi observe-t-on un tel décalage ? C’est pour aborder cette question que notre équipe internationale et interdisciplinaire, rassemblant des archéozoologues, des archéologues et des paléogénéticiens, a rassemblé des restes de chiens archéologiques pour analyser les lignées représentées et leurs dynamiques. Nous venons de publier nos résultats dans la revue scientifique Proceedings of the Royal Society B : Biological Science.

Nous avons mis en évidence une diversification génétique des chiens il y a environ 7000 à 5000 ans, qui correspond au développement de l’agriculture et aux transferts de plantes entre les différentes régions, en particulier le maïs.

D’autre part, nos travaux montrent que les lignées présentes aujourd’hui en Amérique sont pour l’essentiel très différentes de celles qui étaient présentes avant la colonisation européenne, il y a 500 ans. Ces dernières descendent de chiens venant d’Europe, d’Asie ou d’Afrique, apportés par le commerce trans-océanique. Ce n’est que chez certains chihuahuas que l’on retrouve la trace d’un lien direct avec les chiens du Mexique ancien.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une quarantaine de sites archéologiques analysés

Avec le développement des analyses paléogénétiques (l’analyse de l’ADN ancien), aborder les questionnements archéologiques demande d’associer des chercheurs aux profils variés et c’est ce que notre projet de recherche a permis. Pour étudier l’origine et les dynamiques des populations de chiens en Amérique centrale et du Sud, il nous a fallu identifier et rassembler des squelettes issus de 44 sites archéologiques, qui s’étendent du centre du Mexique au nord de l’Argentine.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Nous avons travaillé sur des fouilles récentes, nous permettant d’avoir un maximum d’informations sur les contextes d’où venaient les chiens, mais aussi sur la réanalyse de collections anciennes dans lesquelles des restes de canidés avaient été trouvés. Confirmer l’identification de ces chiens a également été un défi : en Amérique du Sud en particulier, il existe de nombreux canidés dont la taille et la morphologie sont proches de celles du chien : renards, loup à crinière, chien des buissons… Il s’agit d’ailleurs d’animaux qui ont pu être proches des groupes humains, jusqu’à être inhumés. C’est donc l’utilisation d’analyses morphologiques fines qui nous ont permis de sélectionner les os et les dents analysés. Nous avons extrait l’ADN de 123 chiens (dont les poils de 12 chiens modernes, pour nous servir de référentiels) dans des laboratoires spécialisés en France, au Muséum national d’histoire naturelle, et au Royaume-Uni, à l’Université d’Oxford.

Le séquençage de cet ADN s’est fait en deux étapes. Nous avons d’abord étudié l’ensemble des fragments d’ADN disponibles qui nous ont permis de confirmer qu’il s’agissait bien de chiens et pas d’autres canidés sauvages. Les critères morphologiques que nous avions utilisés sont donc confirmés. Mais, dans la plupart des cas, le génome de ces chiens n’était pas assez bien couvert par le séquençage pour en dire plus : il s’agit d’une des conséquences de la dégradation de l’ADN, à la mort d’un individu, qui se fragmente intensément et, comme un puzzle aux pièces minuscules, il devient difficile de reconstituer un génome complet.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Quand l’ADN mitochondrial révèle ses secrets

Dans un second temps, nous avons réalisé une capture de l’ADN mitochondrial pour filtrer les fragments d’ADN contenus dans les échantillons et garder préférentiellement ceux qui se rapportent au génome mitochondrial. En effet, il existe deux sortes d’ADN dans les cellules : l’ADN nucléaire, contenu dans le noyau de chaque cellule, qui provient pour moitié du père et pour moitié de la mère de chaque chien ; et l’ADN mitochondrial, contenu dans les mitochondries de chaque cellule, et qui, au moment de la fécondation, font partie l’ovule. C’est donc un ADN transmis exclusivement par la mère de chaque chien. Or l’ADN mitochondrial est très court (un peu moins de 17 000 paires de bases, contre 2,5 milliards de paires de bases pour l’ADN nucléaire du chien) et il est présent en multiples exemplaires dans chaque mitochondrie. C’est donc un ADN plus facile d’accès pour la paléogénomique.

Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial
Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial. Aurélie Manin, Fourni par l'auteur

Nous avons obtenu suffisamment de fragments d’ADN mitochondrial pour reconstituer les lignées maternelles de 70 individus (8 chiens modernes et 62 chiens archéologiques) et les analyser au moyen d’outils phylogénétiques, c’est-à-dire permettant de reconstituer les liens de parenté entre les chiens. Les arbres phylogénétiques que nous avons pu reconstituer nous ont permis de confirmer que l’ensemble des chiens américains de la période pré-contact (c’est-à-dire avant les colonisations européennes de l’Amérique il y a 500 ans) ont un ADN mitochondrial se rapportant à une seule lignée, traduisant bien l’arrivée du chien en Amérique au cours d’une seule vague de migration.

Néanmoins, nos travaux permettent de préciser que l’ensemble des chiens d’Amérique centrale et du Sud se distinguent des chiens d’Amérique du Nord (Canada et États-Unis actuels) dont ils se séparent il y a environ 7000 à 5000 ans. Cet âge, qui correspond au dernier ancêtre commun à tous les chiens d’Amérique centrale et du Sud, coïncide avec le développement des sociétés agraires, une période pendant laquelle on observe de nombreux mouvements de plantes entre les régions, et notamment celui du maïs, domestiqué au Mexique, qui arrive en Amérique du Sud il y a environ 7000 ans. La structure des lignées maternelles suggère par ailleurs que la diffusion des chiens s’est faite de manière progressive, de proche en proche : les chiens les plus proches géographiquement sont aussi les plus proches génétiquement. Ce principe d’isolement génétique par la distance s’applique normalement plus aux animaux sauvages qu’aux animaux domestiques, dont les mouvements sont avant tout marqués par la volonté humaine qui induit un brassage au gré des échanges culturels. Nous nous sommes interrogés sur les mécanismes de diffusion des chiens en Amérique, suggérant une dispersion relativement libre, liée aux changements d’activités de subsistance et à l’augmentation du stockage des ressources, qui peut avoir contribué à attirer des chiens féraux (vivant à l’état sauvage).

Un chihuahua descendant des chiens précoloniaux

Aujourd’hui, on ne retrouve presque plus trace de ces lignées et leur structuration en Amérique. Un des chiens de notre étude, issu du village indigène de Torata Alta, dans les Andes Centrales, et daté d’avant 1600 de notre ère, possède un ADN maternel d’origine eurasiatique. Les Européens arrivent dans la région en 1532, certainement accompagnés de chiens, et cet individu nous montre que leur lignée s’est rapidement intégrée dans l’entourage des populations locales. C’est le seul animal issu d’un contexte colonial inclus dans notre étude et on ne dispose pas de plus d’informations permettant d’expliquer les mécanismes ayant mené à la diversité génétique des chiens observée aujourd’hui. Quoi qu’il en soit, parmi les chiens de race moderne dont on connaît le génome mitochondrial, un chihuahua porte un génome dont la lignée maternelle remonte aux chiens ayant vécu au Mexique à la période pré-contact. Un indice qui vient corroborer les sources concernant l’histoire de cette race, dont les premiers représentants auraient été acquis au Mexique dans la seconde moitié du XIXe siècle.

Ce travail interdisciplinaire nous a permis de mieux comprendre la diffusion et l’origine des populations de chiens en Amérique centrale et du Sud. Néanmoins, il ne porte que sur l’ADN mitochondrial, et donc sur l’évolution des lignées maternelles. L’analyse du génome nucléaire pourrait révéler d’autres facettes de l’histoire des chiens en Amérique que de futurs travaux permettront de développer.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Aurélie Manin a reçu des financements du NERC (Natural Environment Research Council) au Royaume-Uni pendant la réalisation de cette étude.

PDF

06.07.2025 à 09:40

Détecter les contenus pédocriminels en ligne : quelles options techniques ? Quels risques pour la vie privée ?

Aurélien Francillon, Professeur en sécurité informatique, EURECOM, Institut Mines-Télécom (IMT)

Diane Leblanc-Albarel, Postdoctoral research associate, KU Leuven

Francesca Musiani, Directrice de recherche au CNRS, Directrice du Centre Internet et Société (CIS), associée à Mines Paris - PSL, Mines Paris - PSL

Pierrick Philippe, Doctorant en Cybersécurité, Université de Rennes

Peut-on détecter automatiquement les contenus pédopornographiques en ligne sans ouvrir la voie à la surveillance de masse ?
Texte intégral (3012 mots)

Les contenus à caractère pédopornographique pullulent sur le net. Ils sont issus de la terrible exploitation d’enfants, et ce qui est montré constitue avant tout un crime réellement perpétré. Ils sont également dangereux pour les gens qui les voient, notamment les enfants.

Ces contenus criminels font donc l’objet de plus en plus de régulations et de détection automatisées. Mais comment concilier la protection des mineurs avec la préservation de la vie privée, la protection des données personnelles, et les libertés fondamentales — sans ouvrir la voie à une surveillance de masse ?


Certaines entreprises, comme Apple, Google et Meta, pratiquent déjà la détection de contenus pédopornographiques sur certains services (hormis les messageries chiffrées de bout en bout comme WhatsApp ou Signal). La France est particulièrement concernée, avec plus de 310 000 signalements reçus en 2023. Ces entreprises procèdent volontairement à ces détections grâce à une dérogation européenne à la directive ePrivacy.

Aujourd’hui, le Conseil de l’Europe envisage, dans sa proposition de régulation communément appelée ChatControl, de rendre obligatoire le scan des communications privées pour y détecter les contenus pédopornographiques — y compris sur les applications chiffrées de bout en bout.

En effet, bien que ces contenus soient illégaux, leur détection automatique ne fait pas encore l’objet d’une régulation. Mais une telle mesure généraliserait la surveillance : chaque média échangé par chaque citoyen devrait être scanné. Quelle est aujourd’hui l’efficacité de la détection de contenu à caractère pédocriminel et de leur signalement ?


À lire aussi : Peut-on détecter automatiquement les deepfakes ?


Lutte contre la criminalité et surveillance

Le chiffrement « de bout en bout » (de l’émetteur au récepteur) et sans accès possible aux données par les fournisseurs est de plus en plus populaire avec les applications comme WhatsApp, Signal ou iMessage.

Cependant, depuis 2010, les gouvernements réclament plus fermement l’affaiblissement du chiffrement, tandis que les experts en cybersécurité mettent en garde contre les risques de failles exploitables par des acteurs malveillants.

En effet, une fois les moyens techniques de surveillance instaurés, il est extrêmement difficile de s’assurer qu’ils ne seront pas, par exemple, exploités à des fins de répression politique. On l’a vu avec le logiciel espion Pegasus et, plus récemment, avec l’affaire TeleMessage, quand des membres du gouvernement américain pensaient utiliser une version sécurisée de Signal, alors que leurs communications étaient en fait accessibles quasi publiquement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Détection de contenus à caractère pédocriminel : comment ça marche, techniquement ?

On distingue deux types de contenus à caractère pédocriminel.

D’une part, les contenus déjà identifiés, qui représentent la grande majorité des contenus à caractère pédocriminel en ligne.

D’autre part, les contenus nouveaux, qu’ils soient réels ou générés par IA (et donc des « faux » à proprement parler, mais présentant quand même un caractère pédocriminel), qui sont très minoritaires en pratique aujourd’hui.

Pour identifier les contenus à caractère pédocriminel connus, on pourrait être tenté de les stocker dans une base de données qui servirait de base de comparaison. Cependant, un tel stockage est illégal dans la plupart des pays, et dangereux (car des personnes pourraient y être exposées).

C’est pour cela que les plates-formes – à qui incombe la responsabilité de scanner les contenus — stockent uniquement une « signature », et non les images elles-mêmes. Ces signatures sont générées par des « fonctions de hachage perceptuelles ».

Ces fonctions produisent des signatures similaires pour des contenus visuellement proches. Par exemple, une photo légèrement modifiée (en appliquant un filtre par exemple) conserve une signature proche de celle de la photo d’origine, alors que deux images différentes (un chien et un chat) donneront des signatures bien distinctes.

Les fonctions de hachage perceptuelles sont conçues pour donner une signature identique pour des images proches (même si un filtre est appliqué par exemple), et des signatures différentes pour des images différentes. Ceci permet de comparer les images soupçonnées d’être criminelles à une base de données de contenus criminels déjà connus et identifiés – sans être exposé aux images. Diane Leblanc-Albarel, Fourni par l'auteur

Ainsi, si une plate-forme veut détecter un contenu à caractère pédocriminel, elle calcule le « haché perceptuel » (la signature) de l’image et le compare aux signatures de contenus connus.

C’est le seul moyen de détection automatique qui existe aujourd’hui — les systèmes d’intelligence artificielle sont pour l’instant moins performants et nécessitent systématiquement une vérification humaine. Il est déjà utilisé à grande échelle, puisque les GAFAM utilisent ce système pour scanner uniquement les informations que les utilisateurs choisissent de partager sur les réseaux sociaux, Internet ou via des messageries non chiffrées de bout en bout.

Signalements de contenus à caractère pédocriminel

Si une correspondance est trouvée entre la signature d’une image d’un utilisateur et celle d’un contenu pédocriminel, l’image est signalée automatiquement au NCMEC (National Center for Missing and Exploited Children ou Centre national pour les enfants disparus et exploités), une organisation américaine à but non lucratif qui centralise et coordonne les signalements à l’échelle mondiale et agit comme un intermédiaire entre les plates-formes numériques, les forces de l’ordre et les autorités nationales. Les plates-formes peuvent également suspendre le compte de l’utilisateur.

En 2023, moins de 64 000 rapports automatiques, sur plus de 36 millions reçus par le NCMEC, ont été reconnus « urgents » par les autorités — soit 0,2 %.

Si aucun organisme n’a communiqué sur l’efficacité réelle des fonctions de hachage perceptuelles, il est établi qu’elles peuvent être attaquées avec succès et que le système de détection peut être mis en échec. Il est par exemple possible de modifier légèrement une image pour que sa signature corresponde à celle d’une image anodine, ce qui permettrait à des individus malveillants de faire passer un contenu dangereux pour anodin (faux négatifs).

Les fonctions de hachage perceptuelles génèrent aussi de nombreux faux positifs : des images différentes peuvent partager la même signature, ce qui pourrait mener à accuser à tort des centaines de milliers de citoyens.

Les fonctions de hachage peuvent générer des « faux positifs », c’est-à-dire attribuer la même signature à des images différentes. Fourni par l'auteur

Introduire des portes dérobées

Aujourd’hui, le Conseil de l’Union européenne souhaite rendre la détection obligatoire, y compris aux applications de messageries qui, pour la plupart, ne font pas encore de détection de contenus à caractère pédocriminel.

Or, pour détecter automatiquement des contenus illégaux, il faut y avoir accès… ce qui est compliqué puisqu’une grande part des communications passe par des messageries chiffrées « de bout en bout », c’est-à-dire pour lesquelles un tiers ne peut pas scanner les contenus échangés entre deux personnes.

Rendre la détection possible même sur des messageries chiffrées reviendrait à intégrer une porte dérobée dans le protocole de chiffrement afin de fournir l’accès aux données chiffrées à un tiers. Une telle porte dérobée représente une faille de cybersécurité — ce qui rend cette option inenvisageable en pratique.


À lire aussi : Confidentialité, géolocalisation : la 5G est-elle plus sûre que la 4G et la 3G ?


Scanner les photos directement sur les téléphones des utilisateurs

En pratique, ce que recommande donc aujourd’hui le Conseil de l’Union, sur la base d’un rapport technique de 2022 analysant les options disponibles (qui n’ont pas évolué depuis la publication du rapport), c’est de recourir au client-side scanning, c’est-à-dire scanner les photos directement sur les téléphones des utilisateurs.

Cela impliquerait un accès aux photos de tous les appareils en Europe, posant des risques majeurs : détection automatique de contenus légitimes (par exemple des photos d’enfants partagées avec un médecin) ou de nudes échangés volontairement entre adolescents.

De plus, cet accès pourrait permettre la consultation de tout ou partie des photos stockées sur téléphone, sans que les citoyens n’en soient informés, ce qui représenterait une atteinte potentielle à la vie privée, en contradiction avec la Convention européenne des droits de l’homme.

Enfin, l’efficacité limitée des fonctions actuelles pourrait entraîner de nombreux faux positifs, tout en laissant passer des contenus pédocriminels légèrement modifiés.


À lire aussi : Apple peut scanner vos photos pour lutter contre la pédocriminalité tout en protégeant votre vie privée – si la société tient ses promesses


Le « function creep » : le risque de détournement d’une technologie conçue pour un usage particulier

L’un des principaux dangers liés à l’affaiblissement du chiffrement est le phénomène du « function creep » : une technologie conçue pour un usage précis finit par dériver, au détriment des libertés.

L’histoire de la surveillance numérique montre que des outils mis en place sous couvert de sécurité ont régulièrement été réutilisés pour d’autres finalités, parfois abusives.

Un exemple emblématique est le programme de surveillance PRISM mis en place par la National Security Agency (NSA) des États-Unis. Ce programme illustre bien comment des outils de surveillance créés pour des motifs de sécurité nationale afin de lutter contre le terrorisme (notamment après les attentats du 11 septembre 2001) ont été utilisés pour collecter des données de masse, y compris sur des citoyens ordinaires et des alliés des États-Unis.

De façon semblable, dans un premier temps, les autorités pourraient justifier la nécessité d’un accès aux communications chiffrées par la lutte contre la pédocriminalité et le terrorisme, deux causes auxquelles l’opinion publique est particulièrement sensible. Mais une fois l’infrastructure technique en place, il pourrait devenir tentant d’élargir leur usage à d’autres types d’infractions : criminalité organisée, fraudes, voire délinquance économique.

Ainsi, un système conçu pour détecter des images pédopornographiques dans les messages chiffrés pourrait être détourné pour identifier des documents sensibles partagés par des journalistes d’investigation ou des opposants politiques, comme les affaires Pegasus et Telemessage l’ont montré récemment. Mais finalement, le plus grand problème de ces systèmes imposés à large échelle est simplement qu’ils seront facilement contournés par les criminels.


Le projet DIGISOV ANR-23-CE53-0009 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Aurélien Francillon a reçu des financements de la commission européenne via le projet ORSHIN (Horizon 101070008), l'ANR via le projet PEPR REV (ANR-22-PECY-0009 France 2030) et les entreprises Eviden et SAP.

Diane Leblanc-Albarel reçoit des financements du Fonds Wetenschappelijk Onderzoek (Fonds de recherche scientifique flamand, FWO).

Francesca Musiani reçoit des financements de l'Agence Nationale de la Recherche (projets ANR DIGISOV et ORA ClaimSov).

Pierrick Philippe a reçu des financements de CREACH LABS.

PDF

03.07.2025 à 16:33

PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?

Guy Royal, Professeur de chimie, en délégation au sein du Laboratoire EDYTEM de l'université Savoie Mont Blanc, Université Grenoble Alpes (UGA)

Micheline Draye, Professeure de Chimie à l'USMB, Université Savoie Mont Blanc

Nathalie Cottin, ingénieure chimiste, Université Savoie Mont Blanc

Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité. Capteurs portables et nouvelles méthodes sont nécessaires.
Texte intégral (2628 mots)

Les PFAS constituent une très grande famille de molécules dont certaines sont maintenant reconnues comme polluants éternels. Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité et pourrait être bien plus large, à condition d’améliorer les méthodes de mesure existantes et d’en développer de nouvelles, notamment en concevant des capteurs portables.


Les substances per- et polyfluoroalkylées, plus connues sous l’acronyme PFAS (on prononce « pifasse ») constituent une famille de plus de 12 000 molécules synthétiques. Ces composés contiennent des liaisons chimiques très fortes entre des atomes de Carbone et de Fluor, ce qui leur confère des propriétés remarquables.

En particulier, les PFAS peuvent posséder des propriétés antiadhésives, anti-frottements et déperlantes, associées à des stabilités chimiques et thermiques exceptionnelles. Pour ces raisons, les PFAS sont utilisés depuis les années 1950 dans de très nombreux produits de l’industrie (plasturgie, résines, peintures, mousses anti-incendie…) et de grande consommation (cosmétiques, textiles, emballages alimentaires…).

Malheureusement, certains PFAS sont aujourd’hui reconnus comme toxiques et nocifs pour la santé humaine et l’environnement. Leur grande stabilité chimique les rend difficilement (bio) dégradables et certains d’entre eux sont maintenant qualifiés de « polluants éternels ».

Il est donc nécessaire de limiter l’utilisation des PFAS et de résoudre les problèmes environnementaux et sanitaires dont ils sont responsables. C’est ainsi que des actions sont actuellement menées à l’échelle mondiale pour réglementer l’utilisation des PFAS, comprendre leurs effets sur la santé et l’environnement, mais aussi pour les remplacer, parvenir à décontaminer efficacement les sites pollués et aussi assurer leur suivi et leur surveillance.

Dans ce contexte, un point clé consiste à pouvoir détecter et quantifier efficacement les PFAS, que ce soit notamment dans l’environnement, l’eau de consommation et les eaux de rejets ou encore dans les milieux biologiques (fluides, organes…).

Malheureusement, le nombre considérable des substances per- et polyfluoroalkylées, la grande diversité de leurs propriétés et les faibles limites de détection à atteindre rendent leur surveillance et leur analyse extrêmement compliquées !

Deux exemples de PFAS particulièrement surveillés (PFOA et PFOS) — parmi la dizaine de milliers de composés PFAS existants. Guy Royal, Fourni par l'auteur

Comment analyse-t-on les PFAS ?

Plusieurs méthodes d’analyse des PFAS existent actuellement, mais la majorité des mesures est réalisée à l’aide d’une technique répondant au doux nom de « chromatographie liquide couplée à la spectrométrie de masse en tandem » (LC-MS/MS). Celle-ci permet de différentier, d’identifier et de quantifier les différents PFAS présents dans l’échantillon initial.

Cette technique d’analyse associe le pouvoir de séparation de la chromatographie en phase liquide aux capacités d’analyse de la spectrométrie de masse, hautement sensible et sélective.

schéma de principe
Principe de la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Guy Royal, Fourni par l'auteur

Cette technique, très utilisée notamment dans le domaine pharmaceutique et par les laboratoires d’analyse et de recherche, est extrêmement sensible et performante puisqu’elle permet d’analyser simultanément un grand nombre de molécules contenues dans des échantillons complexes avec des limites de détection très basses.

Toutefois, son utilisation est coûteuse et délicate à mettre en œuvre, car elle requiert l’utilisation d’un matériel de pointe et d’utilisateurs experts.

Avec cette technique, on ne peut détecter que ce que l’on recherche

De plus, il est nécessaire d’utiliser une colonne chromatographique adaptée aux molécules à analyser. Il faut également étalonner l’appareil, c’est-à-dire utiliser préalablement des échantillons de PFAS dont la composition en molécules et leurs concentrations sont connues afin de les reconnaître et de les quantifier lors de l’analyse.

Ainsi, on ne peut donc détecter que ce que l’on recherche : c’est pour cela que l’on parle d’« analyse ciblée ». Seule une gamme limitée de PFAS est ainsi détectée (quelques dizaines sont généralement recherchées), ce qui peut avoir pour effet de sous-estimer le total des PFAS présents dans un échantillon.

De surcroît, dans le cas spécifique des PFAS, ceux-ci peuvent se retrouver dans des matrices extrêmement variées pouvant être de l’eau (potable, naturelle, industrielle et/ou de rejet…), des sols et des boues, mais aussi des milieux biologiques tels que le sang ou les organes. Il est ainsi souvent nécessaire de procéder à un prétraitement de l’échantillon afin de le rendre compatible avec l’analyse.

Cette étape supplémentaire allonge significativement le temps nécessaire pour obtenir des résultats et en augmente le coût de chaque analyse pouvant représenter plusieurs centaines d’Euros. On comprend dès lors toute la complexité que revêt ce type d’analyse !

Enfin, la mesure des PFAS par chromatographie est réalisée exclusivement en laboratoire. Les échantillons doivent donc être transportés, ce qui rallonge le temps entre le prélèvement et le résultat d’analyse.

Pourra-t-on bientôt détecter les PFAS rapidement et sur site ?

Face aux enjeux actuels liés aux PFAS, une demande forte existe pour l’analyse in situ, en particulier des milieux environnementaux et des eaux de consommation, afin de détecter rapidement une éventuelle pollution et de permettre une intervention rapide et efficace.

À ce jour, il n’existe pas de test simple permettant de détecter des PFAS de manière rapide et directement sur le site à analyser (rivière, eau de rejet…). Il n’est pas non plus possible de mesurer en continu et de suivre la concentration de PFAS dans le temps.

Pour répondre à cette problématique, des recherches sont en cours à l’échelle mondiale afin de développer des capteurs simples permettant une détection rapide et à faible coût. L’objectif est notamment d’obtenir, de manière rapide et aisée, un signal — généralement électrique ou optique — indiquant la présence de PFAS dans un échantillon.

C’est dans ce contexte que le laboratoire EDYTEM de l’Université Savoie Mont-Blanc et l’entreprise grenobloise GRAPHEAL (start-up en essaimage du CNRS issue des travaux de recherche réalisés au sein de l’Institut Néel de Grenoble) travaillent conjointement au développement d’un capteur électronique à base de graphène.

Le graphène, dont les découvreurs ont été nobélisés en 2010, est un film moléculaire de carbone cristallin à deux dimensions et de l’épaisseur d’un simple atome. Son empilement constitue le graphite, et il est doté de propriétés électriques exceptionnelles car les électrons, forcés de circuler sur la surface du film en raison de son épaisseur ultimement fine, interagissent fortement avec les éléments adsorbés sur le graphène.

photo et schéma de principe
Une photo des capteurs de molécules développés par Grapheal, avec une illustration de leur principe : la présence de molécules entre la source et le drain affecte le courant électrique qui circule dans le dispositif, ce que l’on peut mesurer. Grapheal, Fourni par l'auteur

Le principe du dispositif visé, de type transistor, repose sur la connexion d’un plan de graphène à deux électrodes, le matériau graphène étant recouvert d’un film moléculaire capable d’interagir sélectivement avec une ou plusieurs molécules de type PFAS présentes dans l’échantillon à doser. Cette interaction à l’échelle moléculaire entraîne une modification de la tension entre les deux électrodes. L’amplitude de cette modification étant liée à la concentration de molécules PFAS présentes dans l’échantillon, il est alors possible de quantifier ces dernières.

Le développement d’une telle technique représente un véritable défi scientifique car il s’agit de mesurer l’équivalent d’une goutte d’eau dans un volume équivalent à trois piscines olympiques ! Il est aussi nécessaire d’explorer un vaste panel de molécules PFAS et de conditions expérimentales puisque les PFAS peuvent être présents dans des échantillons très divers qui vont de l’eau potable aux eaux de rejets.

À ce jour, ces dispositifs permettent de détecter différents types de PFAS actuellement surveillés, dont des PFAS ayant des chaînes fluorées longues (plus de 5 atomes de carbone) et courtes. Notre seuil de détection atteint actuellement 40 nanogrammes par litre pour le PFOA, qui est un des PFAS les plus couramment rencontrés à l’état de traces dans l’environnement.

Des techniques de préparation permettant de concentrer les PFAS dans le prélèvement pourraient encore améliorer ce seuil.

En cas de succès, ces capteurs permettront de réaliser des tests rapides, peu coûteux et utilisables directement sur site. À l’image des autotests Covid qui sont complémentaires des analyses PCR, ces capteurs électroniques à base de graphène — tout comme d’autres dispositifs d’analyse rapide, tels que des capteurs reposant sur un changement de coloration — viendront en complément des méthodes chromatographiques. Ils permettront d’obtenir davantage de résultats préliminaires, facilitant ainsi une surveillance accrue et mieux adaptée aux enjeux actuels liés au PFAS.

The Conversation

Guy Royal, professeur à l'Université Grenoble Alpes, développe sa thématique de recherche dédiée aux PFAS au sein du laboratoire EDYTEM de l'Université Savoie Mont Blanc dans le cadre d'une délégation.

Micheline Draye a reçu des financements de l'ANR projet ANR-23-LCV2-0008-01.

ingénieure chimiste

PDF

03.07.2025 à 14:42

Nouvelles images de la galaxie du Sculpteur : mille et une couleurs à 11 millions d’années-lumière de la Terre

Eric Emsellem, Astrophysicien, Observatoire Européen Austral

Une nouvelle étude a permis de couvrir presque totalement la galaxie dite du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé.
Texte intégral (1431 mots)
La galaxie du Sculpteur est imagée en grand détail par l'instrument MUSE du VLT de l'Observatoire européen austral, au Chili. ESO/E. Congiu et al., CC BY

Une nouvelle étude a permis de couvrir presque totalement la galaxie du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé, et dans de très nombreuses couleurs. Ces informations, libres d'accès, permettent d'avancer dans notre compréhension de la formation des étoiles.


Une collaboration internationale d'astronomes, dont je fais partie, vient de rendre publique une des plus grandes mosaïques multicouleur d'une galaxie emblématique de l'Univers proche, la galaxie spirale du Sculpteur, ou NGC 253.

En seulement quelques nuits d'observations, nous avons pu couvrir la quasi-totalité de la surface apparente de cette galaxie de 65 000 années-lumière de large, avec un niveau de détail inégalé, grâce à un instrument unique, MUSE, attaché au Very Large Telescope de l'Observatoire européen austral (ESO).

Ces images permettent de voir à la fois les petites et les grandes échelles de cette galaxie située à 11 millions d'années-lumière de la nôtre. En d'autres termes, on peut zoomer et dézoomer à l'envi, ce qui ouvre la porte à de nouvelles découvertes, et à une compréhension approfondie du processus de formation des étoiles.

Un des Graals de l'astrophysique moderne : comprendre la formation des étoiles

Voici ce que l'on sait déjà. Pour former des étoiles, du gaz interstellaire est comprimé et de petits grumeaux s'effondrent : des étoiles naissent, vivent, et certaines étoiles finissent leurs vies dans une explosion qui disperse de nouveaux atomes et molécules dans le milieu interstellaire environnant — ce qui procure une partie du matériel nécessaire à la prochaine génération d'étoiles.

La galaxie du Sculpteur vue par le VLT : les étoiles déjà présentes en gris, auxquelles se surimposent les pouponnières d'étoiles en rose. Source : ESO.

Ce que l'on comprend beaucoup moins bien, c'est de quelle façon les grandes structures du disque galactique comme les spirales, les filaments ou les barres évoluent dans le temps et promeuvent (ou inhibent) ce processus de formation d'étoiles.

Pour comprendre ces processus, il faut étudier de nombreuses échelles à la fois.

En premier lieu, des échelles spatiales : les grandes structures elles-mêmes (spirales, filaments, barres font plusieurs milliers d'années-lumière), les régions denses de gaz appelées « pouponnières d'étoiles » (qui ne font « que » quelques années-lumière)… et une vision globale et cohérente de la galaxie hôte (jusqu'à des dizaines de milliers d'années-lumière de rayon).


À lire aussi : Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1


De plus, ces processus ont lieu sur des durées totalement différentes les unes des autres : les étoiles massives explosent au bout de quelques millions d'années, alors que les structures dynamiques comme les spirales évoluent sur des centaines de millions d'années.

De nombreuses études ont permis, dans les quinze dernières années, une cartographie de galaxies voisines à l'aide d'imageurs très performants au sol et dans l'espace.

Mais les différents acteurs de ces processus complexes (par exemple le gaz interstellaire, les étoiles jeunes ou vieilles, naines ou massives, la poussière) émettent de la lumière de manière spécifique. Certains par exemple n'émettent que certaines couleurs, d'autres un large domaine de longueur d'onde.

Ainsi, seule la spectroscopie — qui distingue les différentes couleurs de la lumière — permet d'extraire simultanément des informations telles que la composition des étoiles, l'abondance des différents atomes dans le gaz interstellaire, le mouvement du gaz et des étoiles, leur température, etc.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l'actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd'hui !


L'avancée de l'ESO et de son instrument MUSE

C'est pourquoi cette étude dirigée par Enrico Congiu, un astronome de l'ESO, est si pertinente et excitante pour la communauté scientifique.

En rassemblant plus de 100 champs de vue, et quelques 9 millions de spectres obtenus avec le spectrographe MUSE au VLT, Enrico Congiu et son équipe, dont j'ai la chance de faire parti, ont pu sonder simultanément et pour la première fois l'ensemble de la galaxie mais aussi les différentes régions de formation stellaire individuellement dans leur environnement spécifique (dans les bras des spirales, au sein de la barre ou vers le centre), apportant des mesures robustes de leur composition et de leur dynamique.

La galaxie du Sculpteur vue dans différentes couleurs grâce au spectrographe MUSE : les éclats correspondent à des éléments chimiques abondants, comme l'hydrogène, qui émettent à des longueurs d'onde spécifiques. Source : ESO.

L'équipe d'astronomes en a profité pour découvrir plusieurs centaines de nébuleuses planétaires — vingt fois plus que ce qui était connu jusque-là. Ces données nous donnent simultanément des indications sur l'histoire de formation stellaire de la galaxie. Par exemple, elles vont permettre d'identifier et de caractériser en détail presque 2500 régions de formation stellaire, la plus grande base de données spectroscopiques pour une seule galaxie (article en préparation).

Mais c'est aussi une opportunité unique de tester la mesure de la distance à cette galaxie.

En effet, le nombre relatif de nébuleuses planétaires brillantes et moins brillantes au sein d'une même galaxie est un levier puissant pour déterminer la distance de cette galaxie. L'équipe internationale a ainsi montré que la méthode basée sur les nébuleuses planétaires était certainement entachée d'erreur si l'on ignore l'impact de l'extinction due à la poussière présente dans la galaxie.

Exploiter librement les données de MUSE pour démultiplier le potentiel de découverte

Ces magnifiques données calibrées et documentées de NGC 253 sont le fruit d'un travail important de la collaboration menée par Enrico Congiu, qui a décidé de les rendre publiques. Au-delà des études présentes et futures conduites par cette équipe, c'est donc la communauté astronomique mondiale (et n'importe quel astronome amateur !) qui peut aujourd'hui librement exploiter le cube de données spectroscopique MUSE.

Cet aspect « Science ouverte » est une composante primordiale de la science moderne, permettant à d'autres équipes de reproduire, tester et étendre le travail effectué, et d'appliquer de nouvelles approches, à la fois créatives et rigoureuses scientifiquement, pour sonder ce magnifique héritage de la science et de la technologie.

The Conversation

Eric Emsellem a reçu des financements de la Fondation Allemande pour la Recherche (DFG) pour par exemple l'emploi d'etudiants. Il travaille pour l'ESO (Observatoire Europeen Austral) et est en détachement de l'Observatoire de Lyon qui a mené la construction de l'instrument MUSE. Il fait parti de la collaboration internationale PHANGS et est un co-auteur de l'étude menée par Enrico Congiu.

PDF
19 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓