LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

20.03.2025 à 00:00

Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice

Pauline Zarrouk, Chercheuse CNRS en cosmologie au Laboratoire de Physique Nucléaire et des Hautes Energies (LPNHE), Sorbonne Université

Une nouvelle carte 3D de l’Univers permet de mieux comprendre le mystère de l’énergie noire.
Texte intégral (1791 mots)
Les galaxies s’organisent en grandes structures, les filaments cosmiques. DESI collaboration, Fourni par l'auteur

DESI est une grande campagne d’observation astronomique. Son but ? Mesurer avec précision la position des galaxies dans l’espace, afin de traquer la mystérieuse « énergie noire » qui dominerait la manière dont l’Univers est en expansion aujourd’hui.

Pour cela, plus de 900 scientifiques de plus de 70 institutions dans le monde entier se sont alliés. Aujourd’hui, nous dévoilons nos nouveaux résultats sur l’histoire de l’expansion de l’Univers.


C’est en Arizona (États-Unis), au milieu du désert, que se trouve notre télescope Mayall de DESI, situé à l’observatoire de Kitt Peak. Avec son miroir principal de quatre mètres de diamètre, il observe le ciel depuis mai 2021. En trois ans, il a mesuré 15 millions de galaxies, collectant à la fois leur position dans le ciel et leur distance, grâce à ses 5 000 petits yeux robotisés.

À partir de la position des galaxies et de leur distance, nous publions aujourd’hui la cartographie tridimensionnelle des grandes structures de l’Univers la plus précise à ce jour.

Avec cette carte, nous voulons répondre à un mystère qui rend perplexes les astrophysiciens depuis sa découverte, il y a vingt-cinq ans : non seulement l’Univers est en expansion (cela, nous le comprenons), mais cette expansion s’accélère. Pour décrire cette accélération, notre modèle actuel de l’Univers suppose l’existence d’une énergie noire dont la forme la plus simple est une « constante » cosmologique. Les tout nouveaux résultats de DESI, combinés avec d’autres données, suggèrent que cette énergie noire varie avec le temps : elle ne serait donc pas constante.

Si ces observations ne résolvent pas à elles seules le mystère de l’énergie noire, elles donnent des pistes concrètes et quantitatives sur lesquelles appuyer les explorations futures.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La carte 3D des galaxies la plus précise à ce jour

Les galaxies ne sont pas réparties de manière aléatoire dans le ciel, comme on le voit sur la vidéo. Il y a des régions avec beaucoup de galaxies regroupées en amas ou en filaments, et d’autres régions sont beaucoup moins denses, qui forment des vides cosmiques. Cette structuration de la matière dépend de la gravité, qui attire les corps massifs entre eux, ainsi que du contenu de l’Univers en matière ordinaire, en matière noire et en énergie noire.

Les positions des 15 millions de galaxies observées par DESI en trois ans. Source : DESI collaboration and KPNO/NOIRLab/NSF/AURA/R. Proctor.

La technique d’analyse utilisée pour obtenir ces nouveaux résultats avec trois ans de données avait déjà été testée, raffinée et appliquée aux données collectées pendant un an par DESI. Elle s’appelle BAO, un acronyme plus sympathique que son nom complet (les « oscillations acoustiques des baryons » ou baryon acoustic oscillations).

Elle est fondée sur l’existence d’une distance caractéristique entre deux galaxies qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En mesurant cette distance caractéristique à différents moments de l’histoire de l’Univers, nous retraçons son expansion au cours de temps et nous pouvons ainsi étudier la façon dont cette expansion s’accélère.

Les oscillations acoustiques des baryons ont une taille caractéristique qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En étudiant ce motif, cette distance caractéristique entre deux galaxies, à différents moments de l’histoire de l’Univers, les chercheurs cartographient l’expansion de l’espace-temps afin de comprendre le mécanisme à l’origine de l’expansion accélérée de l’Univers au cours des derniers six ou sept milliards d’années. Gabriela Secara, Perimeter Institut, Fourni par l'auteur

DESI et notre compréhension de l’expansion de l’Univers

À ce jour, aucune théorie ne permet d’expliquer de manière satisfaisante le mécanisme à l’origine de l’accélération récente de l’expansion de l’Univers (il y a environ cinq ou six milliards d’années), d’où le nombre croissant de projets qui y sont consacrés.

Pour expliquer ce phénomène, le modèle actuel de la cosmologie suppose l’existence d’une composante exotique, appelée énergie noire, dont on cherche à déterminer les propriétés, en particulier si celles-ci évoluent avec le temps ou sont constantes.

Jusqu’à présent, c’est l’hypothèse la plus simple pour décrire l’énergie noire qui a été adoptée : il s’agit de la constante cosmologique, dont la valeur est déterminée par les observations, mais que l’on ne sait pas relier à un mécanisme physique.

Les nouveaux résultats de DESI avec trois ans de données sont en parfait accord avec ceux obtenus en avril dernier avec un an de données, et ils apportent les meilleures contraintes à ce jour sur les paramètres de notre modèle cosmologique actuel.

Toutefois, à mesure que la précision de nos données s’améliore, des craquelures dans le modèle commencent à surgir dès lors qu’on essaye d’expliquer, avec le même modèle, différentes observations de notre Univers.

De plus, les nouveaux résultats de DESI combinés à l’analyse des premiers photons émis dans l’Univers (fond diffus cosmologique) et des explosions d’étoiles (supernovae de type Ia) confirment la préférence pour un modèle où l’énergie noire varie au cours du temps — c’est ce que l’analyse avec un an de données avait déjà montré en avril et en novembre derniers. Cette préférence pour un modèle d’énergie noire dynamique par rapport à une constante cosmologique n’a pas encore atteint le seuil d’une découverte, mais s’est renforcée avec plus de données collectées par DESI.

Nous assistons peut-être à la fin de la constante cosmologique et à l’aube d’une avancée majeure sur la nature de l’énergie noire, plus de vingt-cinq ans après la découverte de l’accélération de l’expansion de l’Univers.

Un œil vers le futur

D’autres programmes d’observations du ciel visent également à sonder la nature de l’énergie noire et à tester la théorie de la gravité en utilisant la cartographie tridimensionnelle des galaxies comme DESI, mais aussi d’autres sondes cosmologiques.

Parmi ces autres sondes de l’Univers récent, deux sont particulièrement intéressantes et complémentaires de DESI : les supernovae de type Ia et le lentillage gravitationnel, qui provient des déformations de la forme des galaxies du fait de la présence de matière le long de la trajectoire des rayons lumineux.

Côté supernovae, l’analyse cosmologique des supernovae de type Ia du programme Zwicky Transient Facility (ZTF) en combinaison avec les données de DESI devrait apporter un éclairage prometteur.

Côté lentillage gravitationnel, le satellite européen Euclid, lancé en juillet 2023, et le programme décennal d’observation du ciel de l’observatoire Vera-Rubin (en construction au Chili, ndlr) — dont la première lumière est prévue pour l’été 2025 — apporteront de nouvelles données et de nouveaux résultats, qu’il sera très intéressant de comparer et de combiner avec l’échantillon final de DESI, d’ici fin 2026.

Le télescope DESI (en anglais). Source : National Science Foundation News.
The Conversation

Pauline Zarrouk a reçu des financements du CNRS Particules et Noyaux.

19.03.2025 à 12:32

« Severance » : le processus de réintégration décrypté par les neurosciences

Laetitia Grabot, Chercheur postdoctoral en neurosciences cognitives, École normale supérieure (ENS) – PSL

Comment les neurosciences expliquent-elles le processus de réintégration dans la série « Severance » ? Est-il crédible ?
Texte intégral (2677 mots)

La série de science-fiction Severance dépeint un monde dystopique où une opération chirurgicale permet de séparer ses souvenirs au travail de ses souvenirs liés à sa vie privée. La saison 2, qui cartonne et dont l’épisode final sera diffusé le 21 mars 2025, met en avant une procédure qui permettrait de réintégrer ces deux pans de la personnalité. Qu’en disent les neurosciences ?


Cet article contient des spoilers des épisodes 1 à 6 de la saison 2.

Dans la série Severance, les employés de Lumon Industries sont dissociés entre leur « moi du boulot » et le « moi de la maison ». Le premier est ainsi entièrement dévolu à ses tâches professionnelles, sans interférences dues aux aléas de la vie quotidienne, et le second libre de vaquer à sa vie privée sans charge mentale due au travail. Cependant, malgré la promesse d’un équilibre travail/vie privée strictement parfait, les protagonistes ne vivent pas si bien leur dissociation. Le personnage principal, Mark Scout, tente une procédure de réintégration de ses deux « moi ». C’est Reghabi, une ancienne employée rebelle de Lumon qui s’en charge.

Dans l’épisode 3 de la saison 2, elle enregistre l’activité du cerveau de Mark après avoir posé des électrodes sur sa tête, comme on le fait de nos jours avec l’électroencéphalographie. Deux tracés en forme de vagues sont visibles, chacun d’eux représentant une partie des souvenirs de Mark. La procédure consiste à resynchroniser ces deux tracés, c’est-à-dire à les réaligner, pour réintégrer les deux « moi ».

Ce processus serait crédible à l’aune des connaissances actuelles en neurosciences. Connaître les recherches sur le sujet permet d’apprécier de nouvelles subtilités dans cette série, qui soulèvent déjà de nombreuses questions.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dissociation et réintégration des « moi »

L’activité cérébrale mesurée par électroencéphalographie, une technique qui consiste à poser des électrodes sur le cuir chevelu d’une personne, se présente effectivement sous forme de vagues d’activité. Les chercheurs étudient ce signal en le découpant en différentes oscillations, plus ou moins rapides, dont les noms correspondent à la liste de lettres grecques égrenées par Reghabi : delta, theta, alpha, beta, gamma.

L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma)
L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma). Données de l’auteur, CC BY-SA

Les oscillations delta sont par exemple très lentes, autour de 2 Hz, ce qui correspond à deux cycles par seconde, proche du rythme cardiaque après un effort, et souvent retrouvées pendant certaines phases du sommeil. Les oscillations gamma sont plus rapides, autour de 40 Hz (40 cycles par seconde), et sont impliquées dans de nombreuses fonctions cognitives comme la perception visuelle ou la mémoire.

Dans la série, la réintégration se produit lorsque Reighabi force les deux signaux correspondant aux deux « moi » de Mark à se resynchroniser. On pourrait ici faire un lien avec une question fondamentale en neurosciences cognitives : comment le cerveau combine-t-il les différentes informations qu’il reçoit (lumière, son, odeurs…) en une expérience consciente cohérente ?

Considérons une scène avec un ballon rouge et une chaise grise : chaque objet a plusieurs caractéristiques, comme sa couleur, sa forme ou le fait qu’il soit statique ou en mouvement. Chacun de ses aspects est traité par des parties différentes du cerveau. Comment ces informations dispersées sont-elles ensuite regroupées pour donner une perception unifiée de la scène ? Plus particulièrement, comment le cerveau sait-il qu’il faut associer la couleur rouge au ballon, et la couleur grise à la chaise ?

Le phénomène de synchronisation des oscillations a été proposé comme solution potentielle : deux populations de neurones, à deux endroits différents du cerveau, vont se synchroniser si elles traitent deux caractéristiques d’un même objet.

Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se syn
Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se synchroniseront si les deux parties s’intègrent pour former un même objet. Adapté de Engel et coll., 2001, CC BY-ND

Cette théorie a été proposée suite à une étude de référence sur des chats, auxquels des électrodes ont été implantées dans le cerveau. Ces électrodes ont permis de mesurer la réponse de groupes de neurones dans le cortex visuel, lorsque des barres lumineuses étaient présentées devant les yeux des chats. On savait déjà qu’un neurone communiquait en envoyant des impulsions électriques à ses voisins. Les auteurs ont remarqué que les neurones déchargeaient ces impulsions de manière rythmique, suivant une oscillation, alternant entre périodes de repos et périodes d’activité. La découverte la plus remarquable, c’est l’observation que différents groupes de neurones, éloignés l’un de l’autre, se synchronisaient entre eux seulement s’ils étaient activés par la même barre lumineuse.

Plus généralement, les neuroscientifiques ont proposé l’idée que la synchronisation de deux groupes de neurones éloignés leur permettait d’aligner leurs périodes d’activité et donc de pouvoir échanger des informations. La synchronisation de l'activité cérébrale serait donc un mécanisme important du traitement de l’information dans le cerveau car elle permettrait aux différents groupes de neurones du cerveau de communiquer entre eux. Dans Severance, on retrouve cette idée : réintégrer les deux « moi » se fait en resynchronisant l’activité cérébrale de chacun des « moi », ce qui permet de rétablir une communication entre les deux pans de la personnalité de Mark.

Synchronisation des neurones : peut-on repérer une personnalité dans une zone du cerveau ?

Là où la fiction se permet quelques libertés artistiques par rapport à la science, c’est lorsqu’un objet aussi complexe qu’un « moi » défini par ses souvenirs, désirs, et émotions est capturé et réduit à une oscillation. En réalité, chaque aspect du fonctionnement du cerveau (perception, attention, mémoire…) est associé à différents types d’oscillations cérébrales. Par exemple, les oscillations theta (entre 4 et 8 Hz), alpha (entre 8 et 12 Hz) et gamma (> 35 Hz) sont impliquées dans les processus attentionnels. La mémoire mobilise aussi les oscillations theta et gamma. Le simple fait de regarder une image sollicite plusieurs mécanismes impactant différentes régions du cerveau et reste encore partiellement incompris à ce jour. Ainsi, aucune de ces capacités ne peut être expliquée par une seule oscillation. Il n’est donc pas possible de résumer une personnalité complète à un endroit précis du cerveau ni de stocker deux personnalités différentes n’ayant rien en commun dans deux parties bien délimitées du cerveau.

Faisons donc l’hypothèse que chaque tracé sur l’oscilloscope représente la moyenne de multiples électrodes mesurant l’activité globale du cerveau de Mark, plutôt que de provenir d’une unique électrode. C’est toute l’activité de son cerveau qui se déphase donc lorsqu’il passe de son « moi du boulot » à son « moi privé », le déphasage étant probablement activé par la puce insérée dans son cerveau. Dans le cas de Mark, on ne veut pas seulement intégrer l’information de deux régions différentes du cerveau, mais on veut réintégrer deux cerveaux complets déphasés dans le temps ! On comprend pourquoi la procédure est douloureuse et occasionne des effets secondaires…

TMS et stimulation cérébrale : une méthode réelle pour « réaligner » les pensées ?

Une dernière question se pose : peut-on resynchroniser deux ondes cérébrales ? Dans la série, Reighabi utilise un dispositif de stimulation magnétique transcrânienne (ou TMS), une technique utilisée à la fois pour la recherche et le traitement de troubles neurologiques ou psychiatriques. Le principe est d’envoyer un champ magnétique localisé qui stimule l’activité des neurones. Dans l’épisode 3 de la saison 2, on voit Mark bouger ses doigts suite à l’usage de la TMS. C’est exactement ce qui arrive lorsqu’on stimule avec la TMS le cortex moteur, une région du cerveau qui dirige l’exécution de mouvements. Il est aussi possible d’induire des oscillations avec la TMS, en envoyant des impulsions rythmiques de champ magnétique. On l’utilise donc dans la recherche pour moduler des oscillations dans le cerveau et observer si ces perturbations de l’activité cérébrale ont un impact sur la perception ou d’autres fonctions cognitives.

Quant à l’utiliser pour resynchroniser deux cerveaux déphasés en une personnalité unifiée, cela supposerait d’appliquer la TMS sur le cerveau entier (alors que l’intérêt de cette technique est de pouvoir cibler une zone donnée, par exemple le cortex moteur, ou le cortex visuel). Or une synchronisation trop forte de nombreuses populations de neurones voir du cerveau entier, conduit à… une crise d’épilepsie. Ce que vit d’ailleurs probablement Mark dans l’épisode 6, bien qu’elle ait aussi pu être déclenchée par un problème dans la tentative de Reighabi d’inonder la puce à l’intérieur de son cerveau pour la rendre inefficace.

La synchronisation des oscillations apparaît donc comme un processus délicat, un ballet subtil où chaque partie du cerveau doit s’accorder avec les autres pour permettre le fonctionnement normal d’un cerveau. Décrypter les mystères des oscillations cérébrales demeure un défi captivant pour la recherche, car elles n’ont pas encore livré tous leurs secrets. Leur potentiel intrigant en fait également une source d’inspiration riche pour la science-fiction, comme l’a montré avec brio la série Severance.

The Conversation

Laetitia Grabot est membre du comité des Jeunes Chercheurs de TRF (Timing Research Forum) une société académique ouverte visant à promouvoir la recherche sur la perception du temps. Elle a reçu des financements de la FRC (Fédération pour la Recherche sur le Cerveau).

19.03.2025 à 12:32

Pourquoi a-t-on la sensation de tomber avant de s’endormir ?

Astrid Thébault Guiochon, Ingénieure et Enseignante, Université Lumière Lyon 2

Pourquoi sursaute-t-on parfois juste avant de sombrer dans le sommeil ? Que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?
Texte intégral (1093 mots)

Après une journée fatigante, vous êtes enfin confortablement installé dans votre lit, prêt à tomber dans les bras de Morphée… quand soudain, votre corps sursaute, comme si vous tombiez dans le vide. Mais pourquoi notre cerveau nous joue-t-il ce tour juste avant de sombrer dans le sommeil ? Et d’ailleurs, que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?


Ce « sursaut du sommeil » porte le nom de « secousse hypnique » (du grec upnos, qui signifie sommeil) ou myoclonie (toujours des termes grecs myo pour muscle, et clonie pour agitation) d’endormissement, en référence à la contraction musculaire brève qui en est à l’origine.

Il s’agit d’une contraction musculaire brève et involontaire qui survient au moment de l’endormissement. Elle peut toucher l’ensemble du corps ou se limiter à un groupe musculaire, comme les bras ou les jambes. Bien souvent, elles sont assez intenses pour nous tirer du sommeil, mais il arrive qu’elles soient assez légères pour ne pas s’en rendre compte.

D’une certaine manière, ces secousses ressemblent au hoquet, qui est lui aussi une myoclonie sauf qu’ici, c’est une partie bien plus grande du corps qui est impliquée.

Environ 70 % de la population en a déjà fait l’expérience au moins une fois dans sa vie, et cette secousse touche autant les femmes que les hommes.

Un endormissement mal synchronisé

Plusieurs théories ont été formulées quant à son origine, mais les scientifiques ne se sont, à ce jour, pas accordés sur une cause certaine.

L’une des théories répandues propose une explication assez simple : lorsqu’on s’endort, on passe par différentes phases de sommeil, jusqu’à atteindre le sommeil paradoxal (qui permet notamment de consolider les souvenirs, et de faire les rêves dont on se souvient au réveil). Ce serait ce passage entre sommeil léger et profond qui engendrerait une relaxation des muscles (l’atonie musculaire), parfois trop soudaine pour le corps. Ce relâchement musculaire soudain pourrait surprendre le cerveau, qui, en réaction à cette perte de tonus, déclencherait une contraction réflexe des muscles.

Un certain nombre de scientifiques parlent également d’un déséquilibre dans l’endormissement du cerveau. Le passage d’un état d’éveil à un état de sommeil est géré au sein du tronc cérébral qui intervient dans un grand nombre de fonctions vitales. Parfois, la transition entre l’éveil et le sommeil est assez instable pour que ce système envoie accidentellement des signaux vers les muscles, qui vont alors se contracter.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un vestige évolutif

Une autre hypothèse repose sur une erreur d’interprétation du cerveau. Lorsqu’on s’endort, nos muscles se relâchent progressivement, notre respiration ralentit et notre rythme cardiaque diminue. Or, le cerveau pourrait interpréter cette détente musculaire soudaine comme une chute, déclenchant un réflexe primitif de sursaut pour éviter un danger potentiel. Cette théorie trouve ses racines dans notre passé évolutif : nos ancêtres dormaient parfois en hauteur (sur des branches, des rochers…) et un relâchement incontrôlé du corps pouvait être synonyme de chute dangereuse. Ce réflexe serait donc un vestige de ce mécanisme de protection.

Cette vigilance résiduelle du cerveau ne se limite d’ailleurs pas aux secousses hypniques : elle se retrouve aussi dans l’effet de première nuit.

Il n’est pas rare, lorsqu’on dort dans un nouvel endroit pour la première fois, de mal dormir, ou moins bien dormir que d’habitude, et l’évolution semble aussi en être la cause. Lors de cette première nuit, une partie de notre cerveau, et plus précisément l’hémisphère gauche, reste plus éveillée que l’autre. L’objectif ? Surveiller l’environnement pour détecter d’éventuelles menaces pour se réveiller rapidement en cas de danger.

Un mécanisme de protection que l’on retrouve aussi chez certaines espèces animales, comme les oiseaux et les dauphins, qui dorment avec un hémisphère (et même un œil) éveillé pour rester en alerte.

Quand notre mode de vie s’en mêle

L’évolution n’est bien sûr pas la seule fautive possible. Certains facteurs peuvent également favoriser ces sursauts nocturnes : le stress, la consommation excessive de caféine ou de nicotine, et même certains médicaments !

Si ces sursauts nocturnes peuvent être surprenants, voire agaçants, ils restent totalement bénins dans la grande majorité des cas. Ils rappellent simplement que la transition entre l’éveil et le sommeil est un mécanisme complexe, encore imprégné des traces de notre passé évolutif.

The Conversation

Astrid Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.03.2025 à 12:30

Les fibres de lin, de l’Égypte antique aux matériaux composites biobasés

Alain Bourmaud, Science des matériaux, Université Bretagne Sud (UBS)

Camille Goudenhooft, Enseignante-Chercheuse en mécanique des matériaux et des assemblages, ENSTA Bretagne

Loren Morgillo, Post-Doc spécialisé dans l'analyse des textiles en fibres naturelles, Université Bretagne Sud (UBS)

Des chercheurs étudient les propriétés de fibres antiques, issues de bandelettes de momie ou de voiles de bateau, pour mieux comprendre comment le lin peut si bien résister aux attaques du temps.
Texte intégral (3242 mots)
Le sarcophage de la momie de Cléopâtre de Thèbes, exposée au British Museum, est enveloppé de bandelettes en lin. © The Trustees of the British Museum, CC BY-NC-SA

Des chercheurs étudient les propriétés de fibres antiques issues de bandelettes de momie ou de voiles de bateau, pour mieux comprendre comment le lin peut si bien résister aux attaques du temps.


Les fibres de lin ont, depuis des millénaires, accompagné le développement de nos civilisations, en raison de leurs performances exceptionnelles, mais aussi de la finesse et du confort des textiles qu’elles permettent de confectionner.

Aujourd’hui, leur usage revient à la mode dans le textile, car le lin pousse en France métropolitaine et se développe dans le secteur des matériaux composites, pour ses propriétés mécaniques remarquables et parce qu’il permet de mettre au point des produits plus respectueux de l’environnement.

En étudiant des fibres de lin datant de plusieurs millénaires, nous cherchons à faire le lien entre passé et présent, afin de nous aider à concevoir des composites biobasés et durables. En effet, les matériaux archéologiques en lin, par exemple les bandelettes de momies égyptiennes, sont des témoins extraordinaires qui peuvent nous apprendre de nombreuses choses sur la durabilité de ces fibres — notamment comment peuvent évoluer leurs propriétés mécaniques ou biochimiques au cours du temps.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le lin, compagnon des humains depuis l’Égypte ancienne

Le lin, domestiqué par les humains depuis près de 10 000 ans, accompagne depuis toujours le développement des civilisations les plus avancées

C’est l’Égypte antique qui en a développé à la fois les pratiques culturales, mais aussi l’extraction de ses fibres et leur transformation, posant ainsi les bases de l’industrie textile que nous connaissons aujourd’hui. Les fibres de lin permettaient à l’époque la réalisation de fils et de textiles d’une grande finesse, très prisés et utilisés à la fois pour la réalisation de vêtements luxueux, mais aussi pour confectionner les plus prestigieux parements funéraires.

Dès cette époque est apparue la notion de recyclage, les textiles en lin étant la plupart du temps réutilisés, sous forme de bandelettes de momies ou encore en voiles de bateaux.

tunique de lin abimee
Une tunique de lin de l’époque byzantine (VIᵉ-VIIIᵉ siècles), en provenance d’Égypte, exposée au British Museum de Londres. The Trustees of the British Museum, CC BY-NC-SA

De plus, dans l’Égypte ancienne mais aussi plus tardivement, dans l’Europe du Moyen Âge ou de la Renaissance, les textiles en lin, compte tenu de leur valeur, étaient couramment utilisés comme monnaie d’échange et de négociation.

Enfin, les fibres de lin ont depuis l’Antiquité guidé les développements de la marine et en sont un des fils rouges. Utilisées par les Grecs ou Égyptiens anciens pour le calfatage des coques et la réalisation des voiles, leur culture soutenue en Bretagne aux XVIIe et XVIIIe siècles a fortement contribué au développement de la marine à voile en France par la réalisation de voiles, cordages ou encore vêtements de matelots.

Fortement concurrencées pour l’habillement, le linge de maison ou les usages techniques par le coton à partir du XVIIIe siècle, puis par les fibres synthétiques depuis le XXe siècle, le lin connaît aujourd’hui un renouveau, que ce soit encore une fois dans le nautisme pour la réalisation de coques ou ponts de bateaux ainsi que de voiles biobasées, mais aussi dans le secteur industriel des transports, par exemple, pour réaliser des pièces d’habillage intérieur et d’isolation pour les voitures.

Le lin, d’hier à aujourd’hui. Source : Synchrotron Soleil CNRS-CEA-Paris Saclay.

Des fibres aux performances exceptionnelles, issues d’une plante essentiellement cultivée en France aujourd’hui

En 2023, l’Égypte représente environ 1 % de la production mondiale de lin, la positionnant parmi les huit principaux pays producteurs à l’échelle mondiale.

Aujourd’hui, le premier producteur mondial de lin textile est la France, dont les surfaces cultivées s’élèvent à 186 000 hectares en 2024 — pour une production d’environ 200 000 tonnes de fibres. En effet, le climat de la côte nord-ouest de la France, caractérisé par une parfaite alternance de jours ensoleillés, une forte humidité et des températures douces, offre aujourd’hui des conditions idéales pour la culture du lin. Cette production reste très minoritaire par rapport aux fibres de coton (26 millions de tonnes dans le monde), mais significative par rapport aux fibres longues de chanvre qui ne concernent que quelques milliers d’hectares en France.

Les fibres de lin possèdent une structure et des propriétés mécaniques hors norme qui sont liées à leur fonction dans la plante et à la structure de cette dernière.

La plante de lin est en effet dotée d’une élongation exceptionnelle : sa croissance est rapide, atteignant une hauteur d’environ un mètre pour un diamètre de tige de quelques millimètres seulement.

champ de lin en fleur
Champs de lin à Saint-Étienne-l’Allier, dans l’Eure. jean-michel gobet, wikipedia, CC BY-SA

Pour tenir debout, elle a développé des fibres d’un diamètre d’environ 15 microns et ayant une longueur de quelques centimètres (celles de bois ne font que quelques millimètres) et regroupées en faisceaux très cohésifs de quelques dizaines d’unités. Ces faisceaux de fibres, répartis en périphérie de la tige, en assurent la stabilité, même en cas de vent ou de pluies soutenues. La nature a ainsi mis au point un modèle mécanique très performant qui peut être une source de bio-inspiration pour la conception des matériaux.

Depuis le début du XXe siècle, les variétés de lin actuelles ont fait l’objet de longues années de sélection variétale afin de produire les plantes les plus riches en fibres et les plus résistantes aux maladies. Les agriculteurs français ont ainsi développé des savoir-faire cruciaux, permettant la récolte de fibres aux qualités optimales — en particulier l’accumulation de chaleur nécessaire à la croissance de la plante, en fonction de la température journalière ; et le rouissage au champ, qui consiste à laisser les tiges de lin reposer dans le champ pendant 3 à 6 semaines, pendant lesquelles des micro-organismes décomposent les tissus entourant les fibres, les préparant ainsi aux étapes de transformation subséquentes.

Cependant, cette culture est confrontée aujourd’hui à de nombreux aléas climatiques. Pour les contrecarrer, la profession travaille à la mise au point de nouvelles variétés plus résistantes à la sécheresse, à la sélection de zones de culture moins arides, et aussi au développement de cultures hivernales.


À lire aussi : Faire pousser des isolants thermiques: un panorama des matériaux disponibles en France


Si les fibres de lin sont de plus en plus utilisées, dans les textiles ou même les matériaux techniques en raison de leurs performances mécaniques, des verrous scientifiques subsistent pour accélérer le développement de leur usage dans le secteur des matériaux ; par exemple, mieux comprendre leur comportement mécanique et structural sur le long terme, notamment en milieu extérieur, est un point clef.

L’étude de leurs défauts structuraux, qui sont des sites de faiblesses mécaniques mais aussi des portes d’entrée pour l’eau et les micro-organismes tels que les bactéries, micro-organismes et champignons, est aujourd’hui un enjeu scientifique important.

Anubis : un projet pour mieux comprendre et maîtriser la durabilité de ces fibres

Le projet Anubis se veut être un pont entre archéologie, archéométrie (l’analyse quantitative de vestiges archéologiques) et science des matériaux.

Notre approche est d’étudier des objets archéologiques très anciens, parfois âgés de plusieurs millénaires, pour comprendre l’évolution de leurs propriétés et de leur structure au fil du temps. Nos travaux portent principalement sur des fibres de lin égyptiennes issues de textiles mortuaires, de filets de pêche ou encore de vêtements de figurine, sélectionnés par les archéomètres de l’Institut français d’archéologie orientale du Caire.

Nous travaillons ainsi sur des petits fragments de textiles anciens (de quelques millimètres), prélevés en bordure des œuvres, en utilisant des techniques de caractérisation le moins destructives possible. Elles nous apportent des enseignements sur leurs propriétés, qui peuvent aussi renseigner les archéologues sur de possibles usages anciens. Le nombre de défauts peut, par exemple, être un indicateur de l’usure de la pièce textile.

representation 3D d’une fibre de lin vue par tomographie
Représentation 3D d’une fibre de lin et de ses porosités internes. Ces fibres archéologiques présentent des signes de vieillissement marqués (porosités et fissures). Morgillo et collaborateurs, 2025, Fourni par l'auteur

Pour déterminer les performances mécaniques de ces fibres de lin anciennes, leur constitution biochimique ou bien leur structure, nous utilisons des techniques de pointe. C’est, par exemple, la microtomographie sous rayonnement synchrotron, qui utilise les rayons X pour obtenir des images en coupe d’une extrême précision d’un objet ou d’un matériau, comme les fibres dans notre cas. Elle permet non seulement d’obtenir une vue en 3D de la structure externe, mais aussi d’analyser en détail la structure interne.

Ces expériences nous permettent par exemple de visualiser les porosités au sein de leurs défauts structuraux. Il est aussi possible de réaliser des cartographies de propriétés mécaniques dans des sections de fibres de lin.

L’ensemble de ces travaux de recherche nous a permis de proposer différents scénarios de dégradation des fibres de lin au fil du temps, selon leurs conditions de dégradation, et de mieux cerner leurs points faibles. Nous avons ainsi observé que les défauts des fibres anciennes, tels que les fissures et les porosités, affectent directement leurs performances. Cependant, certaines fibres sans défaut et protégées de l’humidité peuvent conserver leur intégrité. Par exemple, des fibres provenant d’un tissu trouvé sous terre dans des conditions extrêmement sèches, d’un filet de pêche protégé par de la résine, ou d’un tissu conservé dans une tombe où les conditions atmosphériques sont très stables, présentent un état de conservation similaire à celui des fibres contemporaines.

Nous poursuivons ces travaux aujourd’hui avec d’autres techniques d’analyse : génétique pour tenter d’identifier les espèces de lin cultivées auparavant ou des études mécaniques plus approfondies ; mais aussi en étudiant d’autres fibres, en particulier du coton viking ou péruvien.


Le projet Anubis est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alain Bourmaud a reçu des financements de l'ANR via le projet ANUBIS (ANR-21-CE43-0010)

Camille Goudenhooft a reçu des financements de l'ANR-21-CE43-0010 – ANUBIS

Loren MORGILLO a reçu des financements de l'ANR (Projet FLOEME - ANR-21-CE10-0008).

19.03.2025 à 12:30

Ces souris laineuses sont très mignonnes, mais elles ne ramèneront pas les mammouths à la vie

Emily Roycroft, Research Group Leader & ARC DECRA Fellow, Monash University

Plutôt que de s’intéresser à la désextinction, il serait plus utile de travailler à conserver les espèces qui peuplent encore notre planète.
Texte intégral (1904 mots)
Les souris laineuses recréées en laboratoire. Colossal Biosciences

La société états-unienne Colossal Biosciences a annoncé la création d’une « souris laineuse » — une souris de laboratoire ayant subi une série de modifications génétiques qui lui ont donné un pelage laineux. L’entreprise affirme qu’il s’agit de la première étape vers la « désextinction » du mammouth laineux. Vraiment ?


La modification génétique réussie d’une souris de laboratoire témoigne des progrès réalisés par la science dans la compréhension de la fonction des gènes, de la biologie du développement et de l’édition du génome. Mais une souris laineuse nous apprend-elle vraiment quelque chose sur le mammouth laineux ?

Quelles modifications génétiques ont été réalisées ?

Les mammouths laineux faisaient partie de la famille des éléphants et ont disparu de Sibérie continentale à la fin de la dernière période glaciaire, il y a environ 10 000 ans. La dernière population survivante, sur l’île Wrangel dans l’océan Arctique, s’est éteinte il y a environ 4 000 ans.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La souris domestique (Mus musculus) est une créature beaucoup plus familière, que la plupart considèrent comme un nuisible. C’est aussi l’un des organismes les plus étudiés en biologie et en recherche médicale. Nous en savons plus sur cette souris de laboratoire que sur n’importe quel autre mammifère en dehors de l’humain.

Colossal Biosciences détaille sa nouvelle recherche dans un article dit « preprint », c’est-à-dire un article publié mais qui n’a pas encore fait l’objet d’une évaluation par les pairs. Selon l’article, les chercheurs ont modifié l’expression de sept gènes différents chez des souris de laboratoire par le biais de la technique d’édition génétique.

Photos de souris avec différentes longueurs et couleurs de poils
En manipulant différents gènes, les chercheurs ont obtenu des souris dotées de différents types de fourrure. Colossal Biosciences

Six de ces gènes ont été ciblés parce qu’un grand nombre de recherches chez la souris avaient déjà démontré leur rôle dans les caractéristiques liées aux poils, telles que la couleur, la texture et l’épaisseur du pelage.

Les modifications apportées à un septième gène — FABP2 — étaient fondées sur des données provenant du génome du mammouth laineux. Ce gène est impliqué dans le transport des graisses dans l’organisme.

Les mammouths laineux possédaient une version légèrement plus courte de ce gène, ce qui, selon les chercheurs, pourrait avoir contribué à leur adaptation à la vie dans les climats froids. Toutefois, les « souris laineuses », dotées de la « version mammouth » du gène FABP2, ne présentaient pas de différences significatives en termes de masse corporelle par rapport aux souris de laboratoire ordinaires.

Quel impact sur la désextinction des espèces ?

Ces travaux montrent qu’il est possible d’éditer de manière ciblée des gènes dont la fonction est connue chez la souris. Après d’autres essais, cette technologie pourrait avoir sa place dans les efforts de conservation des espèces. Mais elle est loin d’être prometteuse pour la désextinction.

Colossal Biosciences affirme être en mesure de produire un éléphant génétiquement modifié « semblable à un mammouth » d’ici 2028, mais ce qui rend un mammouth unique ne se limite pas à la peau.

La lutte contre l’extinction devrait aller au-delà de la modification d’une espèce existante pour qu’elle présente des traits superficiels d’une espèce disparue. De nombreux aspects de la biologie d’une espèce disparue restent inconnus. Un manteau laineux est une chose. Recréer l’ensemble des adaptations, y compris les caractéristiques génétiques, épigénétiques et comportementales qui ont permis aux mammouths de prospérer dans les environnements de l’ère glaciaire, en est une autre.

Dessins préhistoriques d’un bouquetin et d’un mammouth
Dessins préhistoriques d’un bouquetin (à gauche) et d’un mammouth (à droite) découverts dans la grotte de Rouffignac, en France. Cave Painter/Wikimedia

Contrairement au thylacine (ou tigre de Tasmanie) — une autre espèce que Colossal souhaite ressusciter — le mammouth a un proche parent vivant, l’éléphant moderne d’Asie. Les liens plus étroits entre les génomes de ces deux espèces pourraient rendre la désextinction du mammouth techniquement plus réalisable que celle du thylacine.

Mais qu’une souris laineuse nous rapproche ou non de cette perspective, cette publication nous oblige à nous poser d’importantes questions éthiques.

Même si nous pouvions ramener le mammouth laineux, devrions-nous le faire ? La motivation de cet effort est-elle la conservation ou le divertissement ? Est-il éthique de ramener une espèce dans un environnement qui ne lui permet plus de survivre ?

Concentrons-nous sur la préservation

Rien qu’en Australie, au moins 100 espèces ont disparu depuis la colonisation européenne en 1788, en grande partie à cause de l’introduction de prédateurs sauvages et du défrichement.

L’idée d’inverser le processus d’extinction est naturellement séduisante. On aimerait croire que l’on peut défaire le passé.

Selon le site web de Colossal :

« L’extinction est un problème colossal auquel le monde est confronté. Et Colossal est l’entreprise qui va le résoudre. »

Il est difficile de contester la première partie de cette affirmation. Mais se concentrer sur la « résurrection » d’espèces disparues détourne l’attention d’une réalité plus urgente : des espèces disparaissent en ce moment même, et nous n’en faisons pas assez pour les sauver.

Nous devrions d’abord nous concentrer sur les promesses de sauver les espèces survivantes plutôt que sur celles de ramener les espèces mortes.

En investissant davantage dans la surveillance des espèces menacées, dans de nouvelles méthodes de lutte contre les parasites et dans la gestion génétique de la conservation, nous pouvons inverser la tendance à l’extinction et assurer l’avenir des espèces qui subsistent.

Il existe une longue liste d’espèces menacées. Avec le financement adéquat et l’attention portée à la conservation, nous pouvons faire quelque chose pour les sauver avant qu’il ne soit trop tard.

The Conversation

Emily Roycroft est financée par le Conseil australien de la recherche, le programme L'Oréal-UNESCO pour les femmes et la science et l'Académie australienne des sciences.

19.03.2025 à 12:30

Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard

Edith Heard, Directrice générale de l'EMBL (European Molecular Biology Laboratory), Laboratorio Europeo de Biología Molecular

Edith Heard, médaille d’or du CNRS 2024, revient sur sa carrière, sur ses découvertes majeures en épigénétique et sur leur importance dans le domaine de la santé des femmes.
Texte intégral (4581 mots)

Edith Heard est biologiste et directrice générale de l’European Molecular Biology Laboratory (EMBL) et professeur au Collège de France. Elle a reçu la médaille d’or du CNRS en 2024 pour ses travaux sur l’épigénétique et l’inactivation du chromosome X.

Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, reviennent avec elle sur sa carrière, depuis sa thèse jusqu’à son rôle de dirigeante, qu’elle exerce avec une passion intacte, pour comprendre l’importance de la recherche en épigénétique sur la santé des femmes et décrypter les fausses croyances qui entourent sa discipline.


Quelle est la différence entre génétique et épigénétique ?

Edith Heard : L’épigénétique est à la fois un concept ancien et une discipline très récente. Au moment où les lois de la génétique et de l’hérédité ont été découvertes, ou plutôt redécouvertes, au début du XXe siècle, des scientifiques s’intéressaient à l’embryologie et au développement. Ils ont réalisé que l’hérédité des caractères avait un lien avec la manière dont un organisme se développe.

En 1942, Conrad Hal Waddington, généticien et embryologiste britannique, a décidé de créer le mot « épigénétique ». C’est une fusion entre génétique et épigenèse qui était le mot utilisé par le médecin anglais William Harvey au XVIIe siècle pour décrire le concept de développement d’un être vivant : de la simplicité à la complexité.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Depuis, la notion a évolué. Dans les années 1970, différents chercheurs, tels que Robin Holliday et Arthur Riggs, ont commencé à étudier une modification de l’ADN : la méthylation (processus par lequel certaines bases nucléotidiques peuvent être modifiées par l’addition d’un groupe méthyle, CH3).

Ils se sont demandé si cette marque pouvait être à la base du fait qu’une cellule est capable de maintenir certains caractères au cours de sa vie et lors des divisions. Dans un organisme, l’ADN est toujours le même, quelle que soit la cellule (à de rares exceptions près). Ce qui change, ce sont les gènes qui vont être différemment exprimés selon le type cellulaire, et ces différences sont maintenues de manière stable dans le temps. Holliday et Riggs ont postulé (indépendamment l’un de l’autre) que la méthylation de l’ADN pourrait jouer un rôle dans cette expression différentielle et son maintien.

Ainsi est née la deuxième définition de l’épigénétique qui désigne « tout changement d’expression génique stable et héritable, au cours de divisions cellulaires, mais qui n’implique pas un changement au niveau de sa séquence ».

Et vous, sur un plan plus personnel, quand avez-vous découvert cette discipline ?

E. H. : Pendant ma thèse en Angleterre à la fin des années 1980, je travaillais sur les cellules cancéreuses et, plus particulièrement, sur un phénomène qui s’appelle l’amplification génique. Lors de cancers, certains gènes vont connaître une amplification en nombre : normalement on n’a que deux copies d’un gène dans une cellule mais, dans le cancer, certains gènes sont présents dans des centaines, voire des milliers de copies. Certains de ces gènes agissent comme un accélérateur du cancer, d’où la pression de sélection pour les amplifier. Ce type de changement est symptomatique de l’instabilité génétique qui caractérise les cellules cancéreuses. Par ailleurs, maintenant nous savons que beaucoup de tumeurs montrent aussi une instabilité épigénétique !

Pour mon projet de thèse, je cherchais à comprendre ce processus d’amplification : comment l’ADN peut-il commencer à s’amplifier dans certaines régions ? Et quelle est l’organisation de ces régions amplifiées ? En travaillant sur ce sujet, j’ai réalisé que les génomes des cellules cancéreuses sont extrêmement remaniés et difficiles à étudier. Et pour ajouter de la complexité, il fallait que j’utilise des techniques de l’époque pour cartographier la région amplifiée du génome que j’étudiais.

Aujourd’hui, on pourrait tout séquencer avec une machine et connaître les séquences très facilement. Si je les avais faits de nos jours, j’aurais pu réaliser la plupart de mes travaux de thèse en une ou deux semaines, alors que cela m’a pris quatre ans ! À l’époque, on coupait l’ADN par des enzymes de restriction. Ce sont des protéines qui identifient des séquences dans l’ADN et qui peuvent les couper spécifiquement. En découpant le génome avec différentes enzymes, on pouvait cartographier un génome entier ou une région. J’utilisais ces enzymes, mais il se trouve qu’elles sont sensibles aux marques épigénétiques comme la méthylation de l’ADN : quand l’ADN est méthylé, l’enzyme ne coupe pas.

C’était un problème pour mon projet, puisqu’il fallait que je coupe l’ADN des cellules cancéreuses que j’étudiais pour mieux le caractériser. Je me suis donc mise à étudier la littérature scientifique sur la méthylation de l’ADN et sur les méthodes pour la rendre réversible. Il se trouve que certains agents chimiques (comme la 5-azacytidine) peuvent conduire à l’effacement de cette méthylation. La 5-azaC est utilisée en clinique pour traiter certains cancers du sang.

J’ai pu démontrer, pendant mes recherches de thèse, qu’après traitement des cellules avec la 5-azaC, je pouvais couper mon ADN complètement et l’analyser. C’est le premier papier que j’ai publié dans lequel j’expliquais cette méthode.

Plus tard, quand j’ai dû choisir un sujet de postdoctorat, j’ai parlé avec des scientifiques de mon intérêt pour l’épigénétique et ils ont pointé un sujet qui n’était pas encore très connu : l’inactivation du chromosome X. C’est un phénomène épigénétique qui touche un chromosome entier chez les femmes. Un des deux chromosomes X est inactivé. En 1990, j’ai commencé à travailler là-dessus et je suis devenue une spécialiste de l’épigénétique à partir de ce moment-là.

Pourquoi, chez les femmes, un des deux chromosomes X doit-il être désactivé ?

E. H. : Chez les femmes, il y a deux chromosomes X. Chez les hommes, il y a un X et un Y. Au cours de l’évolution, petit à petit, le Y est devenu de plus en plus petit et contient donc beaucoup moins de gènes. Par contre, le chromosome X est l’un des plus grands et compte plus de 1 000 gènes. Avoir deux X chez les femelles et un seul chez les mâles, c’est un énorme déséquilibre. On pense que ce processus d’inactivation du X a évolué pour redresser ce déséquilibre.

Dans un embryon, si un des deux chromosomes X n’est pas inactivé, il meurt très tôt. Une double dose de certaines protéines produites par les gènes de ce chromosome est certainement létale. Quand un X est inactivé, presque tous les gènes deviennent réprimés ou silencieux, ils ne sont pas exprimés. L’ADN est toujours là, mais les gènes ne sont plus exprimés et cet état est maintenu au fil des divisions cellulaires grâce à des marques épigénétiques comme la méthylation de l’ADN.

Est-ce que c’est toujours le même chromosome X qui est désactivé ?

E. H. : Au tout début du développement de l’embryon, les deux X sont actifs, ce n’est qu’au stade où l’on compte une centaine de cellules que l’inactivation a lieu. Le choix est fait d’inactiver soit le X paternel, soit le X maternel. Une fois que ce choix est fait dans une cellule, il est maintenu grâce aux mécanismes épigénétiques. En revanche, toutes les cellules n’inactivent pas le même X.

C’est pour cela que les femmes sont constituées d’une mosaïque de cellules où il y a soit le X paternel, soit le X maternel exprimé. En général, environ 50 % des cellules expriment un X maternel et 50 % un X paternel, et cette décision est stable au cours de la vie de la cellule et lorsqu’elle se divise.

Quels ont été vos apports scientifiques dans la compréhension de ce processus ?

E. H. : Quand j’ai commencé mon postdoc en 1990, on venait de découvrir un gène, présent sur le chromosome X, qui produit un ARN qui est à la base de la mise en place de l’inactivation du X. C’est le gène Xist. On ignorait cependant comment il était régulé, c’est-à-dire quand et comment cet ARN est-il produit à partir d’un chromosome X, seulement et uniquement, dans les cellules XX.

Ce mécanisme de régulation de Xist est très particulier. Quand il y a un seul X dans la cellule, le gène Xist ne s’exprime pas. S’il y en a deux, une des deux copies va s’exprimer de manière aléatoire.

Mon premier projet a été de comprendre la régulation de ce gène en étudiant son paysage génomique : j’y ai consacré les dix premières années de ma carrière, car la région qui est nécessaire et suffisante pour son profil d’expression est grande et complexe. Puis j’ai cherché à comprendre comment l’ARN produit par le gène Xist agit pour déclencher l’inactivation du X. Mon équipe de recherche a montré qu’une protéine, appelée SPEN, qui s’associe avec cet ARN est capable d’inactiver tous les gènes d’un chromosome X.

Aujourd’hui, on essaie de comprendre comment cette protéine agit pour réprimer un gène. On pense qu’elle interfère avec le processus d’expression lui-même, c’est-à-dire avec la possibilité qu’ont les gènes d’être transcrits en un ARN qui sera ensuite traduit en protéine. Pour réprimer les gènes, il faut empêcher cette transcription vers un ARN. Cette protéine SPEN est capable de perturber la transcription de ces gènes probablement par plusieurs mécanismes avec ses multiples partenaires que nous avons identifiés.

Comment une cellule peut-elle savoir qu’elle compte deux chromosomes X ?

E. H. : Ça reste une des grandes questions dans le domaine ! Il y a un dialogue, qui, je dois le dire, reste encore assez mystérieux, entre les chromosomes. Mon labo a travaillé pendant pas mal d’années sur ce mécanisme.

À un moment, on pensait qu’il y avait une reconnaissance physique : qu’ils entraient en contact. On avait découvert, en regardant les cellules in vivo par microscopie avec des marqueurs fluorescents, que les deux chromosomes X dans une cellule s’associent transitoirement — justement au niveau du gène Xist — et qu’après cette rencontre, en se séparant, il y a un X qui va exprimer Xist et l’autre pas.

C’était une très belle hypothèse, mais le problème c’est qu’ensuite, on l’a testée en utilisant un système qui nous permettait d’accrocher les deux chromosomes X à la périphérie du noyau de la cellule pour empêcher l’interaction. Et on a montré que tout se passait normalement, avec un seul X qui exprime Xist et l’autre pas. Donc on a prouvé que cet appariement physique n’a pas de rôle dans le choix du X à inactiver, ni dans le comptage des chromosomes. C’était une déception, car c’était une hypothèse sur laquelle on avait travaillé pendant plusieurs années. Mais c’est ça, la science : on a testé notre propre hypothèse et on l’a tuée !

Il y a eu d’autres études, pas dans mon laboratoire cette fois, qui ont montré qu’à côté du gène Xist, il y a un gène responsable de la production d’une protéine appelée RLIM, ou RNF12. Il a été montré qu’une double dose de cette protéine RLIM est la manière par laquelle la cellule reconnaît qu’elle a plus d’un chromosome X. Par contre, on ne sait toujours pas comment la cellule choisit d’inactiver l’un ou l’autre des X.

Quelles sont les conséquences de cette inactivation du X ?

E. H. : Le chromosome X est très connu dans l’étude des maladies génétiques, et cela pour une raison simple : c’est que les hommes n’ont qu’une seule copie. Pour eux, quand il y a une mutation dans un gène du X, ça se voit tout de suite parce qu’il n’y a pas d’autre copie pour la masquer. Beaucoup de maladies sont liées à l’X, y compris la dystrophie musculaire, l’hémophilie, des problèmes neurologiques ou des maladies du système immunitaire.

Chez les femmes, il y a deux versions, ou allèles, des gènes situés sur les chromosomes X, et toutes les cellules ne vont pas exprimer la même à cause de l’inactivation de l’un ou l’autre X. Cela explique que les femmes sont moins touchées que les hommes par ces pathologies. Il y a plusieurs types de maladies qui se retrouvent beaucoup plus fréquemment chez les hommes que chez les femmes. La dystrophie musculaire, par exemple, qui touche surtout les hommes.

Il y a donc des maladies liées à l’X qui impactent moins les femmes, mais il y a un processus biologique important à noter : on observe que certains des gènes, qui étaient silencieux sur le chromosome X inactif, peuvent se réactiver. Dans ces cas-là, on peut se retrouver dans une situation où cette réactivation donne une double dose de protéine, ce qui peut avoir un effet nocif. Un des exemples les plus connus, c’est le gène qui code pour la protéine appelée TLR7, qui est impliquée dans le système immunitaire. On sait qu’une double dose de cette protéine peut donner lieu à des maladies auto-immunes, comme le lupus. On peut penser que c’est la raison qui explique que les maladies auto-immunes sont beaucoup plus fréquentes chez les femmes que les hommes.

À l’inverse, si cette réactivation touche des gènes dits suppresseurs de tumeur, alors ce mécanisme est bénéfique et pourrait avoir un effet protecteur. C’est une hypothèse qui expliquerait que les femmes sont moins touchées par certains cancers, comme celui du foie.

Plusieurs laboratoires, y compris le nôtre, s’intéressent à cette thématique de recherche.

On voit à quel point c’est une régulation très fine et qu’il peut y avoir des avantages ou des désavantages…

E. H. : Exactement. Je dis toujours que chaque gène raconte toute une histoire. Le X est un chromosome qui porte plus de 1 000 gènes. Chacun d’entre eux peut avoir un effet différent, et pas forcément le même à tous les stades de la vie. Il y a certains gènes qui peuvent avoir un effet très frappant à certaines étapes du développement ou dans certains organes ; puis, lors d’autres étapes, ou dans d’autres organes, n’avoir aucun effet.

C’est pour cela que chaque gène (et son profil d’expression sur le X actif ou inactif) mérite d’être étudié individuellement. Jusqu’à récemment, on n’avait pas les outils pour le faire. Mais on a maintenant de plus en plus de moyens pour analyser très finement le taux d’expression d’un gène spécifique et comprendre l’impact d’une double ou d’une simple dose. Ce n’est qu’avec ces connaissances fines que l’on pourra réellement comprendre l’importance de cette inactivation du X.

Ces modifications épigénétiques sont-elles transmises à la descendance ?

E. H. : Chez les mammifères, il y a un effacement des marques épigénétiques qui a lieu au cours de la formation de la lignée germinale (la production des spermatozoïdes ou des ovules). On a constaté que l’épigénome change massivement pour effacer les marques telles que la méthylation de l’ADN. Il y a donc une première reprogrammation.

Ensuite, il y a une deuxième phase d’effacement au moment de la fécondation, parce que le spermatozoïde et l’ovocyte sont des cellules très différenciées : elles ont beaucoup de caractères spécifiques que l’on ne retrouve pas dans d’autres cellules. Dans l’ovocyte fécondé, il faut donc enlever ces caractères des deux côtés, pour créer un embryon « totipotent » – c’est-à-dire, qui peut se développer pour former tout un organisme.

Au moment de la fécondation, il y a donc une deuxième phase de reprogrammation qui efface la plupart des marques épigénétiques et très peu de régions du génome gardent ou maintiennent un état épigénétique qui vient du parent. Ces quelques régions (environ 100) qui gardent leur état, on les qualifie de « soumises à l’empreinte génomique ». Elles héritent d’un état réprimé d’un parent grâce à des marques épigénétiques. Un dérèglement de ce processus peut perturber l’équilibre d’expression de multiples gènes d’une région, conduisant à l’apparition de certaines maladies spécifiques. Mais les régions soumises à l’empreinte sont l’exception à la règle de « tabula rasa », qui efface les marques épigénétiques au moment de la fécondation. Donc il y a très peu de mémoire cellulaire à travers les générations chez les mammifères.

Quelles peuvent être les applications de l’épigénétique ? Existe-t-il des « épimédicaments » ?

E. H. : Tout à fait, on l’a évoqué au début de cet entretien avec la 5-azacytidine, qui est capable de conduire à la perte des marques épigénétiques de méthylation de l’ADN. Elle est utilisée en clinique depuis des décennies, sans que l’on comprenne son mode de fonctionnement précis, ni sur quels gènes spécifiques elle a un effet. On savait que chez des patients atteints de dysplasie myéloïde (maladie causant une production insuffisante de cellules sanguines saines par la moelle osseuse) cette drogue pouvait ralentir l’apparition d’une leucémie.

Des études ont montré que le traitement des cellules cancéreuses peut être affecté par ces épidrogues. En clinique, de nouvelles épidrogues sont testées, mais ce n’est plus vraiment mon domaine. Par exemple, il y a des études qui suggèrent qu’un traitement par immunothérapie combiné à un usage d’épidrogues peut être plus efficace pour le traitement du cancer du poumon. Les épidrogues seules n’ont pas montré beaucoup de succès, mais la combinaison avec une immunothérapie peut avoir un impact.

Au-delà de ces applications, le terme « épigénétique » est devenu à la mode et est présenté comme une méthode miracle, que faut-il en penser ?

E. H. : Je dirais que l’épigénétique est à la mode depuis les années 2000, au moment du séquençage du génome humain. On commençait à comprendre quelles parties du génome étaient modifiées ou pas, et ça donnait peut-être l’espoir que les marques épigénétiques pouvaient changer la « finalité » des gènes dont on hérite. Si on peut réprimer ou activer des gènes par les modifications épigénétiques, peut-être que l’on peut changer notre « destin génétique ». C’est ça qui fait rêver ou fantasmer les gens.

Il y a beaucoup de bruit autour du fait que des changements de notre environnement, comme notre nutrition par exemple, pourraient changer notre épigénome. C’est évident que, si on subit un évènement extrême, que ce soit un choc thermique ou une malnutrition, qu’il s’agisse d’un adulte, d’un fœtus ou même d’une cellule, on change l’expression de nos gènes. Est-ce que c’est de l’épigénétique ? Pour moi, non. Je pense qu’il y a beaucoup de mauvaises informations qui sont propagées. Les changements épigénétiques peuvent avoir un lien avec l’activité des gènes, mais de là à dire que l’on va traiter des gens ou mesurer leur état de santé par les marques épigénétiques, je pense que ce n’est pas vrai, car on ne comprend pas assez ces phénomènes.

On entend également parler de liens entre l’épigénétique et le vieillissement cellulaire…

E. H. : Oui, beaucoup de recherches sont menées sur les manières de rajeunir les cellules. Est-ce que les marques épigénétiques jouent un rôle ? Je pense que ça reste totalement ouvert. On ne sait pas si les changements épigénétiques que l’on observe avec l’âge sont une cause ou une conséquence du vieillissement. Pour le moment, il y a une corrélation dans certains cas, mais, pour moi, il n’y a aucune donnée qui montre de manière définitive qu’un changement épigénétique est le déclencheur du vieillissement. Mais bon, peut-être que j’ai tort et qu’on va trouver le facteur, ou la modification, épigénétique qui fait rajeunir, ce serait super, mais je n’y crois pas.

Quels sont les grands sujets que vous allez suivre à l’avenir ?

E. H. : Je dirais d’abord qu’étudier l’inactivation du X est très important pour comprendre la biologie et, même, la santé des femmes. On sait qu’il y a des gènes sur le X qui peuvent donner lieu, comme on en a parlé, à une protection ou, au contraire, à une prédisposition à certaines maladies. Ces sujets de santé de la femme restent très peu étudiés pour des raisons historiques, et je pense qu’il est primordial de s’y pencher très sérieusement.

Un autre grand sujet, selon moi, porte sur la compréhension des organismes dans le contexte de l’environnement (que ce soit en lien avec l’épigénétique, ou pas). En tant que directrice générale de l’EMBL, j’ai mis en place un programme qui vise à comprendre le vivant dans son contexte naturel, parce que beaucoup de travaux en sciences de la vie se passent au laboratoire, et c’est normal parce qu’on veut contrôler les conditions de nos expérimentations. Mais, dans la réalité, le vivant n’évolue pas dans un contexte stérile et homogène. Donc, pour moi, c’est le grand défi : passer de l’échelle d’un individu, que ce soit un microbe ou un mammifère, isolé dans un laboratoire, à l’échelle d’une communauté ou d’une population, dans un écosystème. Si l’unité de l’organisme vivant est la cellule, l’unité de la vie sur notre planète est l’écosystème.

Maintenant que l’on a compris beaucoup de choses sur les bases moléculaires et cellulaires du vivant, il faut les transposer dans un contexte naturel. Prenons l’exemple de l’humain, avec, par exemple, la pandémie de Covid-19 qui nous a frappés : pourquoi, dans certaines populations, le virus avait-il plus d’effets et, dans d’autres, moins ? Si on veut vraiment comprendre le vivant, il faut sortir de nos laboratoires !

Comment jugez-vous la situation de la recherche aux États-Unis ? Craignez-vous une baisse de financement pour les recherches menées sur la santé des femmes ?

E. H. : Je voudrais dire que je crois que la science ouverte, les approches collaboratives et la collaboration internationale sont essentielles pour la recherche mondiale. La science repose sur la poursuite de la connaissance et s’appuie sur des efforts coordonnés et conjoints pour produire des idées de rupture et des solutions innovantes. Les défis mondiaux, tels que la santé publique, mais aussi le changement climatique ou la sécurité alimentaire, ne peuvent être relevés que par une communauté scientifique internationale fortement connectée.

J’ai bien sûr de nombreux contacts personnels avec des chercheurs et des institutions aux États-Unis et, pour avoir échangé avec des membres de la communauté scientifique dans de nombreux pays, je sais qu’il y a beaucoup de préoccupations et d’inquiétudes. La recherche sur la santé des femmes est un domaine important, mais il y en a bien sûr beaucoup d’autres, tous porteurs de découvertes importantes qui stimulent les progrès nécessaires pour relever les défis auxquels le monde est confronté.

The Conversation

Edith Heard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓