LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

16.04.2025 à 10:13

Résistance bactérienne aux antibiotiques : mieux la comprendre et mieux la contrer

Antonio Monari, Professeur en Chimie Théorique, Université Paris Cité

Florent Barbault, Maitre de conférences en modélisation moléculaire, Université Paris Cité

Isabelle Broutin, Directrice de recherche CNRS, Université Paris Cité

En comprenant comment les bactéries résistent aux antibiotiques, on pourrait inventer de nouvelles méthodes pour améliorer les traitements des infections.
Texte intégral (3583 mots)
Une des stratégies pour résister aux antibiotiques, c’est celle des « pompes à efflux », véritables videurs qui repèrent les inopportuns et les raccompagnent vers la sortie. Florent Barbault, Fourni par l'auteur

Les antibiotiques sauvent de nombreuses vies mais les bactéries qu’ils combattent deviennent résistantes. Cette antibiorésistance provoque de nombreux décès prématurés, et le problème devrait s’aggraver dans les prochaines années et décennies.

Pour mieux le contrer, biochimistes et pharmaciens décryptent les mécanismes qui mènent à l’antibiorésistance. Comment les bactéries repoussent-elles les antibiotiques, évitent leurs effets, ou les détruisent ? Cette compréhension doit permettre de mettre au point des thérapies combinant antibiotiques et autres médicaments qui limiteraient la capacité des bactéries à contrer l’effet des antibiotiques.


Les bactéries sont des organismes constitués d’une unique cellule largement présents dans des habitats variés et parfois extrêmes. Elles sont présentes, sous le nom de microbiotes, sur notre corps ou à l’intérieur, et favorisent des phénomènes essentiels tels que la digestion. Mais les bactéries sont aussi des agents pathogènes à l’origine d’épidémies majeures comme la peste provoquée par la bactérie Yersinia pestis, et le choléra dû à l’espèce Vibrio choleræ.

De ce fait, la découverte des antibiotiques — des molécules qui tuent les bactéries ou bloquent leur croissance — a marqué un tournant décisif dans l’histoire de la médecine, à commencer par la découverte de la pénicilline en 1929. En effet, l’utilisation de ces molécules a permis d’éradiquer de nombreuses maladies infectieuses et d’améliorer grandement l’espérance de vie ainsi que les conditions de santé dans nos sociétés modernes.

Cependant, les antibiotiques, longtemps considérés comme des remèdes miracles et souvent utilisés abusivement en clinique et dans le secteur agroalimentaire, voient aujourd’hui leur efficacité compromise par le développement de souches bactériennes qui leur sont résistantes.

En effet, l’utilisation d’antibiotiques induit une « pression évolutive » sur les bactéries : les bactéries présentant des mutations génétiques leur permettant de résister aux antibiotiques survivent et se reproduisent davantage que les bactéries non résistantes.

affiche de sensibilisation sur l’antiorésistance
Affiche de sensibilisation aux problèmes de résistance aux antibiotiques. Association nationale des étudiants en médecine de France (ANEMF) et Association nationale des étudiants en pharmacie de France (ANEPF)

À terme, cela favorise les populations bactériennes résistantes aux antibiotiques. L’émergence de souches présentant une résistance multiple aux antibiotiques, c’est-à-dire qui sont résistantes à plusieurs types d’antibiotiques à la fois, par exemple à la pénicilline et à l’amoxicilline, est un problème majeur selon l’Organisation mondiale de la santé. Ainsi certaines estimations considèrent que la résistance aux antibiotiques pourrait causer près de 40 millions de décès d’ici 2050.

On ne peut guère s’attendre à de nouveaux antibiotiques, le dernier ayant été introduit sur le marché il y a environ quanrante ans (la ciprofloxacine, en 1987).

En revanche, aujourd’hui, pour mettre au point de nouvelles stratégies thérapeutiques, il est essentiel d’élucider les processus cellulaires et moléculaires qui permettent aux bactéries de développer leur résistance aux antibiotiques.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Certaines stratégies de résistance sont liées au comportement collectif des bactéries

Différentes stratégies de résistance aux antibiotiques existent — elles font intervenir différents niveaux de régulation.

Parmi ces mécanismes, on trouve la « dormance », un état dans lequel l’ensemble des bactéries réduisent leur activité cellulaire pour survivre à des conditions défavorables, comme la présence d’antibiotiques. Une fois l’administration d’antibiotiques terminée, les conditions environnementales redeviennent favorables, permettant aux bactéries de reprendre leur activité normale et notamment leur croissance et multiplication. Ce mécanisme de résistance complique en particulier le traitement des infections chroniques, car des bactéries peuvent se réactiver après la suspension de la thérapie antibiotique, entraînant des rechutes.

Un autre mécanisme de résistance lié aux populations bactériennes est la formation de « biofilms ». En effet, si les bactéries semblent être des organismes simples, elles sont capables de former des colonies pour maximiser leurs chances de survie. Ainsi, en présence d’une surface qui agit comme support, par exemple un cathéter ou une prothèse, les bactéries s’attachent les unes aux autres pour former une communauté organisée : le film de bactéries crée une barrière physique qui réduit l’efficacité des antibiotiques, car ces derniers ne peuvent pas pénétrer à l’intérieur du film et donc dans les bactéries, rendant le traitement plus complexe.

Ce phénomène est particulièrement fréquent dans le cas des infections nosocomiales, qui concernent désormais environ 6 % des personnes séjournant à l’hôpital et qui représentent une menace grave pour les personnes dont le système immunitaire est affaibli. Pour contrer la formation de biofilms, des thérapies combinées, des doses élevées, voire le retrait des dispositifs infectés, sont nécessaires.


À lire aussi : Résistances aux antibiotiques : comment nous pouvons tous agir



À lire aussi : Antibiotiques et antibiorésistance : une situation qui varie selon l’endroit où l’on est


D’autres mécanismes de résistance aux antibiotiques se mettent en place au niveau de bactéries isolées

Au niveau d’une bactérie isolée, les mécanismes de mise en place de l’antibiorésistance ont lieu quand des mutations génétiques apparaissant par hasard au cours de la vie d’une bactérie lui permettent de résister à l’action d’un antibiotique. La bactérie résistante peut transmettre la mutation à sa descendance ; et ce phénomène est amplifié dans les biofilms bactériens, car ceux-ci favorisent l’échange de matériel génétique entre les cellules.

Des mutations génétiques ponctuelles peuvent par exemple altérer la structure et le fonctionnement des protéines ciblées par les antibiotiques, rendant ces derniers inefficaces. À l’inverse, la bactérie peut utiliser la stratégie dite d’« évitement métabolique » en utilisant d’autres protéines, ou des voies métaboliques alternatives, pour contourner l’effet d’un antibiotique. On peut comparer cela à une autoroute bloquée (c’est l’antibiotique qui tente d’empêcher la bactérie de vivre sa vie), où l’évitement métabolique reviendrait à emprunter une déviation pour atteindre sa destination malgré le blocage.

Par ailleurs, certaines bactéries, suite à une mutation génétique, produisent des protéines spécifiques capables de dégrader ou d’inactiver les antibiotiques, les rendant donc inefficaces. C’est le cas par exemple des bêta-lactamases, qui détruisent les antibiotiques de la famille des pénicillines.

Quand la membrane de la bactérie empêche les antibiotiques d’y pénétrer

Les autres mécanismes de résistance aux antibiotiques se situent au niveau de la membrane qui entoure la cellule bactérienne. Cette membrane, constituée d’une double couche de lipides imperméables, protège la cellule.

Les membranes des bactéries sont parsemées de nombreuses protéines qui exercent des rôles différents : elles peuvent favoriser l’adhésion des bactéries aux surfaces ou aux autres cellules, elles peuvent permettre de décoder des signaux, et pour finir elles peuvent favoriser les passages des différentes molécules, par exemple des nutriments.

La résistance aux antibiotiques au niveau de la membrane est donc particulièrement efficace car elle permet de contrer la thérapie antibiotique dès son point d’entrée.

Ainsi, certaines bactéries limitent l’entrée des antibiotiques en réduisant la production des porines, c’est-à-dire des protéines qui forment des canaux traversant la membrane cellulaire et, donc, permettant le passage des molécules externes, dont les antibiotiques.

Un autre mécanisme fascinant de résistance bactérienne consiste en l’utilisation de protéines complexes appelées « pompes à efflux ». Ces structures sont constituées de plusieurs protéines et se situent dans les membranes bactériennes. Elles expulsent activement les antibiotiques qui auraient pénétré la cellule, empêchant ainsi leur accumulation.

Les pompes à efflux, les « videurs » qui se débarrassent des antibiotiques importuns

Les pompes à efflux sont une machinerie complexe oscillant entre une structure ouverte et une structure fermée, pour éviter d’introduire des canaux de communication permanents entre la bactérie et l’extérieur. Elles doivent également être sélectives, pour éviter l’éjection de composés nécessaires à la survie de la bactérie.

mécanismes effectant l’entrée des antibiotiques dans la cellule
Représentation schématique des mécanismes de résistance bactérienne actifs au niveau des membranes et du périplasme des bactéries Gram négatives. On voit la réduction de la production des porines qui permettent l’entrée des antibiotiques, l’action des enzymes qui dégradent les antibiotiques, et les pompes à efflux qui permettent l’expulsion des antibiotiques. Antonio Monari, CC BY

Dans le cas de bactéries dites « Gram négatives », qui possèdent deux membranes séparées par un sas appelé « périplasme », les pompes à efflux doivent traverser les deux membranes et le périplasme pour permettre l’éjection complète des antibiotiques.

Déterminer la structure des pompes à efflux et comprendre leurs mécanismes de fonctionnement est fondamental pour permettre de développer des médicaments capables de les bloquer, et ainsi de restaurer une sensibilité aux antibiotiques dans les souches bactériennes résistantes.

Étudier les pompes à efflux à l’échelle moléculaire

Des techniques de biophysique et de chimie physique, notamment la cryomicroscopie électronique et la modélisation moléculaire, permettent d’accomplir cette tâche et d’accéder à la structure des pompes à efflux avec une résolution à l’échelle des atomes.

simulation moléculaire d’une pompe à efflux
Structure de la pompe à efflux répondant au joli nom de MexAB-OprM, constituée de trois protéines, insérée dans les membranes bactériennes et traversant le périplasme. Cette pompe permet de capturer et expulser les antibiotiques vers l’extérieur de la cellule. Florent Barbault, Fourni par l'auteur

Plusieurs structures de pompes à efflux issues de différentes bactéries Gram négatives ont pu être résolues grâce à cette technique, telles que le complexe AcrAB-TolC d’Escherichia coli, ou MexAB-OprM de Pseudomonas aeruginosa, deux bactéries classées comme préoccupantes par l’Organisation mondiale de la santé.

Nous avons étudié davantage la pompe à efflux MexAB-OprM, afin de mettre en évidence le mécanisme d’expulsion sélective des antibiotiques.

Cette pompe est formée de trois protéines : l’une, composée de trois unités, joue le rôle de moteur de la pompe, la seconde de conduit étanche, tandis que la troisième fait un trou dans la membrane externe pour l’éjection finale des molécules à expulser, selon un mécanisme sophistiqué.

La première unité du moteur présente une cavité dans laquelle l’antibiotique peut entrer. Dans la seconde unité, cette cavité commence à se refermer pour pousser l’antibiotique vers l’intérieur de la pompe, dans une deuxième cavité. Enfin, les deux cavités se referment et un canal s’ouvre au niveau de la troisième unité, permettant l’acheminement dans le tunnel formé par les deux autres protéines, vers l’extérieur de la cellule. Cette pompe n’est donc pas qu’un simple « gros tuyau » : elle réalise un transport actif de l’antibiotique et est capable d’effectuer une sélection des molécules à expulser.

Grâce à ce type d’études, notre but est de comprendre finement les mécanismes de fonctionnement de cette pompe à efflux et de proposer des molécules qui seraient capables d’interagir avec les protéines pour bloquer son action. Par exemple, nous étudions la possibilité de développer des molécules qui pourraient interagir avec les cavités plus favorablement que les antibiotiques, pour bloquer au moins une des trois unités, et donc immobiliser la pompe. Une autre possibilité serait d’empêcher la formation du canal étanche liant les deux protéines insérées dans les membranes en enjambant le périplasme. Ces avancés pourraient permettre de développer une thérapie combinée qui pourrait rendre les bactéries Gram négatives à nouveau sensibles aux antibiotiques et donc contrer efficacement les infections nosocomiales.

Nous croyons que la lutte contre la résistance bactérienne, qui sera un enjeu fondamental de santé publique dans les années à venir, passe par l’utilisation intelligente des méthodes de chimie physique et de biologie structurale pour permettre de comprendre des mécanismes biologiques complexes, tels que la résistance aux antibiotiques ou l’échappement immunitaire, et d’y répondre efficacement.

Entre-temps, il est aussi primordial de favoriser une utilisation propre et contrôlée des antibiotiques, notamment en évitant leur surutilisation ou l’automédication, pour limiter l’émergence de souches résistantes qui pourraient être à l’origine d’épisodes épidémiques difficiles à contrer.

The Conversation

Antonio Monari a reçu des financements d'organisation publiques ANR, MESR etc..

Florent Barbault a reçu des financements de diverses organisations publiques (ANR, idex...)

Isabelle Broutin est membre de la société Française de Microbiologie (SFM), de la Société Française de Biophysique (SFB), et de la Société Française de Biochimie et biologie Moléculaires (SFBBM). Elle a reçu des financements de diverses organisations publiques (ANR, Idex-UPC, Vaincre la mucoviscidose...).

16.04.2025 à 10:11

À la recherche de l’ingrédient mystère de l’Univers, conversation avec Françoise Combes

Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université

Françoise Combes, astrophysicienne et présidente de l’Académie des sciences, retrace l’histoire de la traque de la matière noire : ingrédient mystère indispensable pour comprendre l’Univers.
Texte intégral (4153 mots)
Françoise Combes a obtenu la médaille d’or du CNRS en 2020. Fourni par l'auteur

Françoise Combes est astrophysicienne à l’Observatoire de Paris, professeure au Collège de France et présidente de l’Académie des sciences. En 2020, elle reçoit la médaille d’or du CNRS pour récompenser une carrière consacrée à l’étude de la dynamique des galaxies.

Avec Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, la chercheuse lève le voile sur l’un des grands mystères de l’Univers : la matière noire. De la découverte d’une « masse manquante », en passant par l’hypothèse de la gravité modifiée, jusqu’aux grands projets internationaux de télescopes qui pourraient aider les scientifiques à caractériser cette matière imperceptible. Elle analyse également la situation actuelle des sciences aux États-Unis et dans le monde après l’électrochoc de l’élection de Donald Trump.


The Conversation : Vous vous intéressez à la matière noire, qu’est-ce que c’est ?

Françoise Combes : La matière noire, c’est de la matière invisible, parce qu’elle n’interagit pas avec la lumière : elle n’absorbe pas et n’émet pas de lumière, c’est pour cela qu’elle est appelée « noire ». Mais dans la pièce où nous sommes, il y en a peut-être et on ne la voit pas. En réalité, cette matière n’est pas noire, mais transparente. Ce problème nous questionne depuis des dizaines d’années.

D’où vient le concept de matière noire ? Les astrophysiciens ont observé un manque de masse pour pouvoir expliquer la dynamique des objets astronomiques, comme les galaxies, dont les étoiles et le gaz tournent autour de leur centre. Cette vitesse de rotation est très grande et la force centrifuge devrait faire éclater ces objets, s’il n’y avait pas de la masse pour les retenir. C’est aussi vrai pour les amas de galaxies. La conclusion inévitable est qu’il manque beaucoup de masse. Cette « masse manquante » est nécessaire pour faire coller la théorie et les calculs avec les observations.

À l’origine, les chercheurs pensaient que c’était de la masse ordinaire : c’est-à-dire des protons et des neutrons – la matière dont nous sommes faits, en somme. Mais ils se sont aperçus en 1985 que cette masse manquante ne pouvait pas être faite de matière ordinaire.

Prenons la nucléosynthèse primordiale, qui se déroule dans le premier quart d’heure de l’histoire de l’Univers où l’hélium et le deutérium se forment. S’il y avait suffisamment de matière ordinaire pour expliquer les observations sur la vitesse de rotation des galaxies, on ne mesurerait pas du tout la quantité d’hélium que l’on observe actuellement dans le Soleil, par exemple. On mesurerait beaucoup plus d’hélium et de lithium. Il a donc été établi, dans les années 1990, que seulement 5 % du contenu de l’Univers est fait de matière ordinaire !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


T. C. : Donc, si cette « masse manquante » est invisible, elle doit être faite d’autre chose…

F. C. : Oui, et une confirmation de ce fait est venue avec la détection des fluctuations primordiales du fond diffus cosmologique, vestige du Big Bang. Ces fluctuations sont détectées au tout début de l’histoire de l’Univers, environ 380 000 ans après le Big Bang. Il s’agit de toutes petites fluctuations de la lumière dans le domaine des microondes. À cette époque, la matière ordinaire interagit avec la lumière et cette interaction, par la pression de radiation, empêche la condensation en structures, celles qui vont former les galaxies notamment. S’il n’y avait eu, à cette époque, que de la matière ordinaire, il n’y aurait pas aujourd’hui de galaxies, ni même une seule étoile.

Les chercheurs ont donc compris, entre 1985 et 1990, qu’il fallait supposer l’existence d’une matière qui n’interagisse pas avec la lumière : ainsi, elle ne subit pas la pression de radiation et peut alors s’effondrer sous l’effet de sa propre gravité. C’est la « matière noire » qui va permettre de créer des « galaxies noires », sans matière visible à ce moment-là. Ensuite, 380 000 ans après le Big Bang, la matière va se refroidir en dessous de 3 000 °K. À cette température, les protons et les électrons se recombinent et forment l’hydrogène qui interagit beaucoup moins avec la lumière que les particules chargées. À ce moment, la matière ordinaire peut, si je puis dire, tomber dans les galaxies noires déjà établies et former des étoiles et les galaxies visibles.

T. C. : Cette terminologie de « matière noire » ne semble pas vous convenir…

F. C. : En effet, cela donne l’impression qu’il y aurait quelque chose de noir qui nous empêcherait de voir derrière. Mais ce n’est pas noir, c’est transparent. On devrait plutôt parler de « masse manquante », mais bon, tout le monde utilise ce terme, il faut faire avec !

T. C. : Au fur et à mesure des études sur la matière noire, des candidats ont été imaginés par les physiciens, puis beaucoup ont été écartés…

F. C. : Oui, depuis 1985, beaucoup de pistes ont été éliminées. Il faut en éliminer, sinon il n’est pas possible d’approfondir les bonnes pistes. C’est un peu comme un enquêteur qui a une dizaine de pistes, il ne peut pas toutes les étudier : ça le ralentirait énormément.

Prenons, d’abord, les Wimp parce qu’ils ont été un candidat privilégié pendant de nombreuses années. Wimp signifie Weakly Interacting Massive Particles (en français, particules massives interagissant faiblement). Il existe quatre interactions en physique : l’électromagnétisme, la gravité, puis les deux forces nucléaires forte et faible. L’idée est que s’il existe une interaction entre les particules de matière noire, cela ne peut être qu’une interaction faible. Le Wimp est une particule sans charge, et elle est sa propre antiparticule. Ces particules vont s’annihiler progressivement, par cette interaction faible, jusqu’au moment où l’expansion de l’Univers aura tellement diminué leur densité qu’elles ne pourront plus se rencontrer. Leur abondance sera alors gelée à une valeur « relique ».

Il faut savoir que la matière noire constitue 25 % de notre Univers. Pour que la densité « relique » réponde à cette proportion, il a été calculé que la masse d’un Wimp devait être d’à peu près 100 fois la masse du proton. Ces particules ont été recherchées, et cette recherche de détection directe continue aujourd’hui par des expériences dans le tunnel du Gran Sasso en Italie, par exemple : les particules de matière noire incidentes pourraient entrer en collision avec les noyaux du détecteur, et les faire reculer. Mais aucune collision n’a été détectée !

Une autre approche pourrait être de créer ce Wimp dans un accélérateur de particules, comme au Cern (Large Hadron Collider, LHC). La collision entre deux protons, lancés à des vitesses proches de celle de la lumière, libère énormément d’énergie. Cela crée les conditions d’un mini Big Bang. Avec ce type d’énergie, il est possible de créer une particule de 100 fois la masse du proton. Mais aucune particule exotique n’a été détectée… C’est ce qui a fait tomber ce candidat qui était privilégié depuis trente ans. Ceci a été réalisé vers 2015.

T. C. : C’était donc la fin de l’aventure du Wimp, quelles pistes sont encore ouvertes ?

F. C. : La communauté a également beaucoup travaillé sur la piste du neutrino stérile. C’est une particule inventée de toute pièce. Il faut savoir qu’il existe trois types de neutrinos, qui sont de chiralité gauche, et les physiciens ont imaginé trois neutrinos miroirs, qui ont une chiralité droite (une particule chirale est non superposable à son image dans un miroir, elle a une « latéralité », comme une chaussure droite vis-à-vis de la gauche). Cette théorie rencontre des problèmes : d’une part, des contraintes astrophysiques sur la formation des structures, qui leur affectent une masse trop grande. D’autre part, si le nombre de neutrinos est plus grand que trois, cela devrait accélérer l’expansion au début de l’Univers, au-delà de ce qui est observé dans le fond cosmologique par le satellite Planck. Enfin, des expériences de détection des neutrinos stériles au Fermilab (États-Unis) n’ont donné aucun résultat.

Actuellement, le candidat qui monte est l’axion. Beaucoup de simulations cosmologiques ont été effectuées avec cette particule pour tester ses capacités à reproduire les observations. Là aussi, il s’agit d’une particule hypothétique qui aurait une masse extrêmement faible. Avec un champ magnétique très fort, elle pourrait se changer en photon, mais, là encore, rien n’a été détecté. Même près des étoiles à neutrons, qui bénéficient de champs magnétiques extrêmes.

T. C. : Mais si on n’arrive pas à détecter cette matière noire, peut-être faut-il en conclure qu’elle n’existe pas ?

F. C. : C’est possible, cette idée a déjà été proposée en 1983, mais, dans ce cas de figure, il faut alors valider l’idée qu’il existe une gravité modifiée. C’est-à-dire changer la loi de gravité en champ faible.

Dans le système solaire, le champ est très fort : la gravité de notre étoile, le Soleil, suffit à maintenir tout le système en régime de champ fort. La force de gravité décroît comme le carré de la distance. Il faut s’éloigner très loin du Soleil pour que son champ de gravité devienne assez faible, au-delà du nuage d’Oort, qui est un ensemble de petits corps, d’où viennent les comètes, entre 20 000 et 30 000 unités astronomiques (cette unité est la distance Terre-Soleil, soit environ 150 millions de kilomètres). De même, dans notre galaxie, la Voie lactée, l’ensemble des étoiles au centre a une densité telle, que le champ de gravité combiné est très fort. Il n’y a pas de masse manquante, il n’est pas nécessaire de supposer l’existence de matière noire ou de gravité modifiée ; la physique newtonienne classique permet d’expliquer l’équilibre au centre, mais pas au bord. C’est sur les bords de notre galaxie qu’il manque de la masse.

Notre équipe a effectué des simulations avec cette gravité modifiée, pour la confronter aux observations. Avec Olivier Tiret, nous avons pu reproduire les premières interactions entre galaxies avec le champ de gravité modifiée et nous avons montré que le scénario marchait très bien.

Pour résumer, soit la loi de la gravité est supposée être toujours la même en champ faible, et il faut alors ajouter de la matière noire, soit il n’y a pas de matière noire et il faut supposer que la loi de la gravité est modifiée en champ faible. Car le problème de la masse manquante ne survient que dans les cas de champ faible. En champ fort, il n’y a jamais de problème de matière noire.

T. C. : Et parmi toutes ces hypothèses, quelle est celle qui a le plus de valeur à vos yeux ?

F. C. : Eh bien ! Je n’en sais rien du tout ! Parce que cette gravité modifiée, qui est étudiée par certains astronomes depuis quarante ans, est encore assez empirique. Il n’y a pas de théorie encore bien établie. De plus, si elle explique très bien la dynamique de toutes les galaxies, elle ne reproduit pas bien les amas de galaxies.

La solution est de rajouter soit un petit peu de neutrinos, soit même de la matière ordinaire qui manque. Parce qu’en fait, ce que l’on oublie généralement de dire, c’est que toute la matière ordinaire de l’Univers n’a pas été identifiée. La matière qui correspond aux galaxies, aux étoiles au gaz chaud dans les amas de galaxies, ne correspond qu’à 10 % de la matière ordinaire. On peut déduire des absorptions de l’hydrogène dans les filaments cosmiques qu’il pourrait y en avoir une quantité importante, mais au moins la moitié de la matière ordinaire n’est toujours pas localisée.

Donc, il y a beaucoup de protons et de neutrons manquants. Il suffirait d’en mettre une petite pincée dans les amas de galaxies pour résoudre notre problème de gravité modifiée. En résumé, la matière ordinaire manquante n’est pas encore localisée. Elle ne peut pas être toute dans les galaxies, il y en a peut-être dans les amas de galaxies, mais surtout dans les filaments cosmiques.

En 2015, quand l’hypothèse du Wimp est tombée, ce fut un choc pour la communauté. Et il ne faut pas penser que celle-ci est homogène, certains ont été convaincus tout de suite, mais, chez d’autres, cela a pris plus de temps et certains ne sont toujours pas convaincus. Notamment ceux qui ont travaillé sur le Wimp pendant toute leur carrière. Mais, à chaque fois, le scénario est identique lorsqu’il y a une découverte qui bouscule tout. Il y avait par exemple des astronomes détracteurs de l’existence du Big Bang. L’opposition s’est éteinte lorsqu’ils sont partis en retraite.

En ce qui concerne la gravité modifiée, les progrès sont indéniables. Le problème du début de l’Univers, des galaxies primordiales et des fluctuations est en passe d’être résolu. Par contre, dans les amas, ce n’est toujours pas le cas. La recherche est toujours en cours. Aussi bien dans la théorie de la matière noire que dans celle de la gravité modifiée, il y a des problèmes des deux côtés. Lorsque tous les problèmes seront résolus, une piste ressortira. Mais, pour l’instant, il faut rester attentif et agnostique, en travaillant sur les deux en attendant de savoir de quoi le futur sera fait.

T. C. : Justement, parlons du futur, il y a de nouveaux projets de télescopes, est-ce que cela pourrait vous aider ?

F. C. : Oui, je peux d’abord vous parler du télescope spatial Euclid, qui va décupler les détections de lentilles gravitationnelles, permettant de dresser des cartographies de matière noire. Le télescope va observer presque tout le ciel, et notamment les galaxies de fond, lointaines. Leurs rayons lumineux sont déviés par la matière qu’il y a entre elles et nous. Ce sont ces déformations qui nous renseignent sur la quantité de matière noire. Les images des galaxies de fond sont déformées de manière faible. Cela ressemble à un cisaillement qui permet de déduire statistiquement les cartes de la matière invisible.

Comme chaque galaxie a sa propre forme, il faut observer un très grand nombre de galaxies, ce qui sera possible avec Euclid. On aura 12 milliards d’objets à des profondeurs différentes.

Par ailleurs, et toujours avec ce télescope, il sera possible d’observer les oscillations acoustiques baryoniques, des ondes sonores qui se sont propagées au tout début de l’Univers et qui ont laissé des empreintes dans les structures à grande échelle. Ces structures ont une taille caractéristique, correspondant au chemin parcouru par le son depuis le Big Bang. Lorsque la matière est devenue neutre et s’est découplée de la lumière, 380 000 ans après le Big Bang, la taille de ces structures est restée gelée, et n’augmente qu’avec l’expansion de l’Univers. Il suffit de mesurer cette taille caractéristique à diverses époques pour en déduire la loi de l’expansion de l’Univers. Celle-ci est en accélération aujourd’hui, mais sa loi d’évolution dans le passé n’est pas encore connue. Tous ces résultats seront obtenus vers 2030.

T. C. : Et le télescope James-Webb ?

F. C. : Le JWST nous a montré qu’il y avait beaucoup de galaxies primordiales massives. Il peut observer dans l’infrarouge et donc peut détecter de la lumière provenant de très loin. Ces galaxies se sont formées bien plus tôt que ce que l’on pensait. En plus, en leur centre se trouvent des trous noirs très massifs. Ceci est une surprise, car le scénario de formation attendu était un scénario très progressif. De petits trous noirs se formaient aux premières époques, qui fusionnaient pour former des trous noirs très massifs aujourd’hui ; le scénario est à revoir !

T. C. : Il y a également le projet SKA…

F. C. : Oui, ici l’observation va capter des ondes radio. SKA signifie Square Kilometre Array (un kilomètre carré de surface, en français) ; il est fait d’une multitude d’antennes en Afrique du Sud et en Australie. Ce sont les moyennes fréquences en Afrique du Sud et les basses fréquences en Australie. Comme Euclid, SKA va regarder tout le ciel, mais, puisque ce sont des longueurs d’onde très différentes, ce sont d’autres populations de galaxies qui seront observées. Il sera possible également de cartographier la matière noire. SKA est donc complémentaire à Euclid.

T. C. : Vous avez travaillé dans de nombreux pays, fait-on la même science partout ?

F. C. : Nous, les astrophysiciens, faisons la même science partout. L’astrophysique est une science mondialisée depuis très longtemps. L’observation du ciel a besoin de gros instruments, qui sont relativement très coûteux. Prenons l’exemple de l’ESO, qui a été fondé, vers 1960, avec l’objectif de construire un télescope dans l’hémisphère Sud. Auparavant, chaque pays avait son télescope localement, mais, pour construire de grands télescopes au Chili, il fallait unir ses forces. Ce qui a conduit à l’Observatoire européen austral ESO : un vrai projet européen. Et maintenant, avec SKA, il s’agit même d’un seul instrument pour le monde entier, y compris la Chine. Il n’y a plus la compétition entre pays. Avec le James-Webb et Euclid, on a également des collaborations entre États-Unis et Europe.

T. C. : Votre communauté a donc réussi la prouesse de collaborer mondialement, comment voyez-vous la suite avec l’arrivée de Donald Trump au pouvoir ?

F. C. : La politique de l’administration Trump est en train de faire des coupes drastiques dans les budgets scientifiques et de licencier jusqu’à 20 % des postes. Notre communauté n’est pas la plus affectée. À l’Académie des sciences, nous avons publié un communiqué de presse pour exprimer notre solidarité avec nos collègues, et, surtout, avec plusieurs secteurs en danger : la biologie et la santé, notamment, les recherches sur le changement climatique, l’environnement, la diversité, l’équité et l’inclusion. Des doctorants et postdoctorants ont été renvoyés du jour au lendemain et interdits d’accès à leurs ordinateurs. Il existe des mots interdits, dans la recherche et dans les publications.

Du côté de la NASA, les programmes supprimés sont ceux de la surveillance de la Terre, ce qui impacte fortement la capacité de prédire les événements climatiques, comme les ouragans et les cyclones, ou ceux qui étudient les pollutions. En ce qui concerne les programmes spatiaux, les craintes sont que tous les budgets soient focalisés sur l’envoi d’humains sur Mars, aux dépens de missions plus scientifiques.

Il faut également rappeler les difficultés du lancement du satellite Euclid, qui avait été prévu avec un lanceur Soyouz en Guyane. Après la guerre lancée par les Russes en Ukraine, tout a changé. Ariane n’ayant aucun créneau de libre avant des années, il a fallu se tourner vers SpaceX pour le lancement.

T. C. : Les grandes coopérations spatiales ne sont donc pas encore menacées, mais vous n’êtes pas rassurée pour autant pour la science en général ?

F. C. : Oui, lors du premier mandat de Donald Trump, les réactions des antisciences s’étaient déjà manifestées avec, notamment, la sortie de l’accord de Paris sur le climat. Maintenant, tout se passe encore plus vite, avec la menace de sortir de l’OMS, de supprimer l’Usaid, de démanteler des programmes entiers. Certains juges réagissent, car souvent ces actions ne sont pas légales, et tout peut être remis en question.

Nous sommes aussi très inquiets pour les NIH (National Institutes of Health), dont de nombreux scientifiques ont été licenciés ou encouragés à prendre leur retraite. En janvier, les chercheurs du NIH étaient interdits de publier et de voyager ! Des collègues biologistes nous ont expliqué avoir vu de jeunes chercheurs en postdoctorat se faire licencier du jour au lendemain par mail. Des personnes en train de travailler sur l’écriture d’un article scientifique et qui, d’un coup, n’avaient plus accès à leur ordinateur pour le terminer.

Il est possible que les chercheurs licenciés essaient de trouver des pays plus accueillants. La France fait des efforts, au niveau gouvernemental, pour offrir des postes à ces « réfugiés scientifiques », mais aussi universitaires. Une pétition a circulé pour demander à la Commission européenne de débloquer des fonds pour cet accueil.

T. C. : Avez-vous vu une réplique de vos homologues américains ?

F. C. : Il n’y a pas vraiment eu de levée de boucliers très forte encore, non. Peut-être que l’Académie américaine est très dépendante du gouvernement fédéral et ne peut pas réagir. Il y a aussi une certaine sidération, et de l’expectative en attendant de savoir si toutes ces menaces vont être mises à exécution. Il y a aussi une grande part de peur de représailles et de coupures ou de licenciements encore plus graves. Le 7 mars, les scientifiques se sont réunis pour une manifestation Stand Up for Science aux États-Unis, qui a été accompagnée en Europe dans beaucoup de pays.

The Conversation

Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:30

La guerre silencieuse des hackers éthiques

Patrice Cailleba, Professeur de Management, PSB Paris School of Business

Nicolas Dufour, Professeur affilié, PSB Paris School of Business

Les hackers éthiques mènent une guerre silencieuse contre les cybercriminels. Ce silence protège ceux et celles qui doivent protéger nos données.
Texte intégral (1619 mots)
Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Guillaume Issaly, Unsplash, CC BY

Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.


Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.

Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.

En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.

De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.

Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Avant la mission

Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.

Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…

Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.

Pendant la mission

Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.

De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.

Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.

Après la mission

À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.

En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.

La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.

On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.

À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).

Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.

Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

10.04.2025 à 17:08

« The Last of Us » et les champignons : la vraie menace n’est pas celle des zombies…

Thomas Guillemette, Professeur de Microbiologie, Université d'Angers

La sortie de la saison 2 de la série « The Last of Us » est prévue le 14 avril. Le scénario de zombification est peu probable mais les champignons peuvent présenter des menaces.
Texte intégral (2401 mots)
Que devraient vraiment craindre les héros de la série « The Last of Us » ? HBO

La sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.


L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Des insectes zombifiés

Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.

Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.

Une fourmi infectée par le champignon Ophiocordyceps unilateralis. On la voit accrochée à une feuille en hauteur
Une fourmi infectée par le champignon Ophiocordyceps unilateralis. On la voit accrochée à une feuille en hauteur. David P. Hughes, Maj-Britt Pontoppidan/Wikipedia, CC BY

Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.

De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.

Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.

La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.

La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.

De véritables menaces pour les humains

Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.

L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.

L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.

Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.

Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.

Des risques pour la santé humaine

L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.

Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.

L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.

Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.

The Conversation

Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.

09.04.2025 à 16:52

Ultra-trail : ce que révèle la science sur ce sport extrême

Mathilde Plard, Chercheuse CNRS - UMR ESO, Université d'Angers

Benoît Mauvieux, Maître de Conférences en STAPS - Physiologie des Environnements Extrêmes, Université de Caen Normandie

Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé.
Texte intégral (1681 mots)
L'ultra-trail scientifique de Clécy a permis d'étudier les réponses de 56 coureurs à un effort long et intense. Alexis Berg, Fourni par l'auteur

Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs sur un parcours de 156 kilomètres. De quoi déconstruire quelques mythes et d’accumuler de nouvelles connaissances sur cette pratique extrême.


Des cimes pyrénéennes aux sentiers escarpés de la Réunion, l’ultra-trail est devenu un phénomène global. Selon l’International Trail Running Association (ITRA), plus de 1,7 million de coureurs sont enregistrés dans leur base de données, et pas moins de 25 000 courses sont organisées chaque année dans le monde.

On distingue plusieurs formats de course à pied en nature : du trail découverte (distance inférieure à 21 km) à l’ultra-trail (distance supérieure ou égale à 80 km). Dans cette dernière classification, la distance 100 Miles (165 km) est la distance reine, même si, aujourd’hui il existe des ultra-trails de 330km (Tor des Geants) ou la Double Suisse-Pick (700 km).

Pourquoi un tel engouement ? La discipline séduit par son aspect immersif en pleine nature, sa capacité à procurer un sentiment d’évasion et de connexion profonde avec l’environnement. Cet attrait va au-delà du sport : il s’inscrit dans une philosophie de vie, une quête de dépassement personnel et d’expérience du présent.

Dans l’ouvrage collectif « Les Sentiers de la Science », nous explorons ces multiples dimensions du trail. Cet ouvrage réunit les contributions de plus de 40 chercheurs issus de disciplines variées et vise à éclairer scientifiquement cette discipline en pleine expansion. Il valorise notamment les résultats obtenus lors du protocole expérimental que nous avons mis en place pour l’ultra-trail de Clécy, en rendant accessibles au grand public les connaissances issues de cette expérience grandeur nature. L’ouvrage nourrit ainsi le débat sur la performance, l’expérience corporelle et la relation à la nature dans le trail.

Des Mythes et croyances à déconstruire ?

L’ultra-trail est souvent entouré de mythes par les pratiquants. Cette jeune discipline, pourtant de plus en plus documentée sur le plan scientifique, manque encore d’encadrement et de supports d’entraînement.

La littérature scientifique montre que la performance en ultra-trail est le fruit de compétences multiples : capacités respiratoires, force et endurance musculaire, gestion des allures de course, motivation et endurance mentale, capacité à s’alimenter et maintien de la glycémie, technique ou encore la gestion de la privation de sommeil.

Ces études de la performance montrent que des athlètes aux qualités différentes peuvent engager différemment certaines de leurs aptitudes pour une même performance finale. Elles démontrent pourquoi les femmes rivalisent largement avec les hommes sur ces distances. Il faut savoir que plus la distance augmente plus l’écart de performance diminue. On observe cela en cyclisme d’ultra longue distance également.

Étudier les contributions respectives de ces paramètres in-situ de la performance n’est pour autant pas facile pour les scientifiques. Généralement un de ces paramètres va être isolé et une équipe va étudier par exemple, la fatigue musculaire avant et après la course (sans finalement avoir une idée de l’évolution de cette fatigue pendant l’effort), parfois quelques mesures pendant la course sont réalisées et apportent davantage de connaissances. Mais cette approche isole tous les autres facteurs. Il est donc difficile de comprendre les interactions avec les autres fonctions : la diminution de la force est-elle corrélée à la glycémie ou à la privation de sommeil par exemple ?

L’ultra-trail de Clécy (156 kilomètres), organisé au cœur de la Suisse-Normande au sud de Caen, conçu comme une expérience scientifique grandeur nature, a permis de confronter ces croyances aux données factuelles.

Cette course a été pensée comme un laboratoire à ciel ouvert pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs représentant la diversité de la population présente sur un trail de niveau national : des coureurs de haut niveau et des amateurs, 75 % d’hommes et 25 % de femmes, avec des analyses détaillées de leur glycémie, des biomarqueurs sanguins inflammatoires, le sommeil, l’hydratation, les paramètres dynamiques tendineux, cardiaques et les adaptations musculaires,la température centrale, les paramètres biomécaniques de la foulée, etc.

Ce protocole a aussi été un défi sur le plan technologique et organisationnel. Certaines mesures étaient enregistrées en continu comme la température centrale du corps à l’aide d’une gélule gastro-intestinale qui envoyait toutes les minutes une donnée sur un moniteur, ou des capteurs implantés dans le triceps des coureurs mesurant en continu la glycémie. D’autres capteurs positionnés sur les chaussures mesuraient les paramètres biomécaniques de la foulée (temps de contact au sol, longueur de la foulée, puissance, cadence) et un gilet connecté permettait de suivre la fréquence cardiaque et respiratoire.

Les coureurs passaient différents tests, des échographies cardiaques pour comprendre comment les paramètres cardiaques évoluaient au cours de la course, des tests devant écran pour mesurer leur état de vigilance, des tests en réalité virtuelle pour perturber leur équilibre et comprendre comment leur système vestibulaire pouvait compenser le conflit sensoriel visuel, des tests de détente verticale pour mesurer la puissance musculaire.

D’autres études menées avec nos collègues proposent d’étudier la discipline de l’Ultra Trail par une approche davantage sociale portant sur trois grands axes d’étude qui structurent les travaux de recherche : engagement et profils des coureurs, facteurs mentaux et expérience corporelle, rôle des territoires et des événements dans le développement du trail.

Ultra-trail et expérience existentielle

Au-delà de la simple performance sportive, le trail représente aussi une véritable aventure intérieure. Les coureurs témoignent souvent d’un profond dépassement personnel, lié non seulement à l’effort physique mais aussi à une exploration plus intime de leurs sensations et émotions. Dans notre ouvrage, cette dimension existentielle est particulièrement soulignée : les participants racontent comment courir en pleine nature leur permet d’être pleinement attentifs à leurs sensations corporelles (comme le froid nocturne, les battements de leur cœur ou la tension musculaire). Ces expériences sensorielles intenses provoquent souvent une véritable gratitude envers leur environnement, particulièrement face aux paysages jugés spectaculaires ou « à couper le souffle ».

Concrètement, nous avons pu mesurer précisément comment les coureurs perçoivent ces sensations à l’aide d’un outil appelé State Mindfulness Scale, une échelle qui permet d’évaluer à quel point les coureurs sont conscients et présents dans leur corps pendant la course. Les résultats indiquent clairement que cette pratique améliore notablement la capacité des coureurs à ressentir intensément leur corps et à mieux identifier leurs limites physiques, favorisant ainsi une expérience enrichie et profonde du trail.

Dans une perspective philosophique, cela rejoint l’un de nos précédents articles publié dans The Conversation montrant comment cette discipline interroge notre rapport au monde.

Que retenir de notre expérience ?

Les résultats de l’étude du trail de Clécy et les contributions académiques permettent d’identifier plusieurs recommandations :

  • Individualiser l’entraînement : il n’existe pas de recette universelle, chaque coureur doit écouter son corps.

  • Optimiser la récupération : la gestion du sommeil est un levier essentiel de performance et de bien-être.

  • Accepter l’incertitude : la préparation mentale est une clé pour affronter l’inconnu et la fatigue extrême.

  • Ne pas minimiser la période de récupération : on observe une forte élévation des marqueurs inflammatoire, une hyperglycémie et un sommeil de mauvaise qualité sur les nuits suivantes.

  • Rester vigilant à l’automédicamentation : ne jamais courir sous anti-inflammatoire.

  • Rester vigilant sur les troubles du comportement alimentaire et l’addiction à l’activité.

L’ultra-trail apparaît ainsi comme une école du vivant, entre prouesse athlétique et exploration humaine. La science permet aujourd’hui de mieux comprendre ce phénomène, tout en laissant place à la magie de l’expérience personnelle.

The Conversation

Mathilde Plard a reçu des financements de l'Université d'Angers pour la mise en place du protocole scientifique sur les dimensions psychosociales de l'Ultra Trail Scientifique de Clécy.

Benoît Mauvieux a reçu des financements des Fonds Européens (FEDER) et de la Région Normandie pour le financement de l'Ultra Trail Scientifique de Clécy (RIN APEEX : Adaptations physiologiques en environnements extrêmes)

03.04.2025 à 20:03

Les bonobos font des phrases (presque) comme nous

Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich

Une nouvelle étude démontre que les bonobos créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain.
Texte intégral (2305 mots)

Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.


Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».

La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.

Un dictionnaire bonobo

Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.

Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.

Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».

Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.

Un whistle a un sens proche de « Restons ensemble ». Mélissa Berthet, CC BY-SA36,7 ko (download)

La syntaxe chez les bonobos

Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.

Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.

Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.

En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.

Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.

Exemple d’espace sémantique cartographiant trois mots humains. Les mots « animal » et « singe » sont proches l’un de l’autre parce qu’ils ont un sens proche. Au contraire, « train » a un sens plus différent, il est plus loin de « animal » et « singe ». Mélissa Berthet, CC BY

Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).

Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.

De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.

Essayons de faire la paix. Mélissa Berthet, CC BY44,4 ko (download)

Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».

L’évolution du langage

Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.

The Conversation

Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).

03.04.2025 à 17:52

Séisme au Myanmar : les dessous tectoniques d’une catastrophe majeure

Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL

Les secousses du séisme du 28 mars au Myanmar ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans une plaine sédimentaire.
Texte intégral (2050 mots)

Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.


Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.

Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.

Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.


À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite


Le Myanmar repose sur un système tectonique chargé

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Fourni par l'auteur

Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.

Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.

Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».

De nombreux séismes dans l’histoire birmane

Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.

Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.

Mieux comprendre le cycle sismique, ou comment les contraintes s’accumulent avant d’être relâchées lors un séisme

Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.

La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.

Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.

Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.

Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.

La prévision sismique : on peut anticiper la magnitude maximale d’un prochain séisme, mais pas sa date

Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).

La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.

Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.

Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.

La crise sismique est-elle terminée ?

Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.

Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.

Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».

The Conversation

Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.

02.04.2025 à 12:23

La destruction des données scientifiques aux États-Unis : un non-sens intellectuel, éthique mais aussi économique

Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

La destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance et la richesse des nations.
Texte intégral (2068 mots)

Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.


Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !

Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.

Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.

L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.

Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une menace croissante pour le patrimoine scientifique mondial

Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.

Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?

Évaluer l’inestimable : la valeur économique des données scientifiques

La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.

L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.

Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.

Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.

L’absurdité économique de la destruction et de la pollution informationnelle

Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.

Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.

Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?

L’Europe comme sanctuaire de la donnée scientifique et terre d’accueil d’une IA éthique ?

Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.

L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :

  • un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;

  • des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;

  • et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.

02.04.2025 à 12:23

S’inspirer des insectes pour rendre les véhicules autonomes plus intelligents

Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)

Pour retrouver leur chemin, les abeilles et les fourmis s’appuient sur une perception de l’environnement bien différente de la nôtre… et dont s’inspirent certains roboticiens.
Texte intégral (2391 mots)
Abeille mellifère, _Apis mellifera_, à la recherche de nectar floral. Christian Guiraud (2021), Fourni par l'auteur

Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.


Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?

Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.

Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.

En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.

Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.

Voir son environnement comme un insecte : moins précis peut-être, mais parfois plus efficace

De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.

Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).

Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.

Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.

Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.

œil courbe électronique
Premier œil composé et courbe, réalisé dans le cadre du projet européen CurvACE. Ce capteur intègre une matrice de pixels autoadaptatifs (630 pixels) et leurs microoptiques de manière à former une juxtaposition de petits yeux élémentaires selon une courbe cylindrique. Dario Floreano, École polytechnique fédérale de Lausanne (EPFL), Laboratory of Intelligent Systems (LIS), Fourni par l'auteur

Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.

Naviguer sans dispositif de géolocalisation, ou comment déterminer la direction à prendre comme une fourmi du désert

Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.

Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.

Photo du robot hexapode AntBot dont la boussole optique est inspirée de la fourmi du désert. Julien Dupeyroux, Institut des Sciences du Mouvement — Étienne-Jules Marey (CNRS/Aix-Marseille Université, ISM UMR7287) (2019), Fourni par l'auteur

Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.

Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.

En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.

AntBot retourne à la maison comme une fourmi du désert. Source : Julien Serres — His personal YouTube channel.
The Conversation

Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).

02.04.2025 à 12:22

Le « shifting » : comment la science décrypte ce phénomène de voyage mental prisé des ados

Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)

Le « shifting » consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire et d’y ressentir des sensations visuelles ou sonores.
Texte intégral (1988 mots)
Vous rêvez de passer un moment dans le monde de _Harry Potter_ ? Ce serait possible avec la technique du « _shifting_ ». Khashayar Kouchpeydeh/Unsplash, CC BY

Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.


Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.

Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.

L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un voyage mental sous contrôle

Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.

Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.

Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.

Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.

Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :

  • d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,

  • ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,

  • enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.

Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.

Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.

Les animaux sont capables de voyager mentalement

Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.

Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.

Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.

Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.

Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.

Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.

Suspendre son incrédulité pour « shifter »

Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.

Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.

Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.

La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.

The Conversation

Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

02.04.2025 à 12:22

Pourquoi avons-nous besoin de sucre ? Existe-t-il un risque d’addiction ?

Bernard Sablonnière, Neurobiologiste, professeur des universités − praticien hospitalier, faculté de médecine, Inserm U1172, Université de Lille

Le sucre est un carburant énergétique indispensable. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?
Texte intégral (1629 mots)
Le sucre est indispensable au bon fonctionnement de notre organisme, mais attention au surdosage ! Thomas Kelley/Unsplash, CC BY

Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport en sucres lents, limitant ainsi le risque de diabète. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?


Le sucre, chimiquement le glucose, est un carburant utilisé par toutes nos cellules pour produire rapidement de l’énergie. Il est brûlé en présence d’oxygène dans de minuscules chaudières cellulaires : les mitochondries, libérant de l’eau, du gaz carbonique et de l’énergie. Bien entendu, les cellules peuvent également consommer des acides gras issus des graisses alimentaires, deuxième source d’énergie. À l’échelle du corps humain, c’est environ de 300 à 500 grammes de glucose qui sont ainsi consommés chaque jour, une quantité variable selon nos dépenses énergétiques. Le foie et les muscles stockent suffisamment de sucre sous forme de glycogène, un polymère unissant des milliers de molécules de glucose, pour servir de réserve.

Le glucose est le carburant préféré du cerveau qui en consomme à lui seul 20 % de tous les besoins corporels, soit environ 4 grammes par heure. D’ailleurs, toute hypoglycémie caractérisée par une baisse du taux de glucose sanguin en dessous de 0,50 g/l pourra entraîner un coma, c’est-à-dire un arrêt du fonctionnement des neurones, alors que le taux normal est de 1 g/l.

Le foie, le cerveau et les muscles, consommateurs et gestionnaires du sucre

Le foie est le banquier du glucose. Il contient une réserve d’environ 80 grammes, qu’il distribue aux organes pour leur besoin permanent en énergie comme le cerveau, les reins et le cœur. Les muscles, eux, sont égoïstes et possèdent leur propre réserve, qu’ils utilisent en cas de besoin d’énergie immédiat. Cette réserve musculaire de 150 à 250 grammes, environ, de glucose disponible est utile lors d’un exercice physique. En cas d’absence d’exercice physique, le surplus de glucose apporté par l’alimentation associé à des réserves pleines de glycogène est transformé en graisse stockée dans le tissu adipeux !

Cette symphonie associant l’absorption du sucre, le maintien de sa concentration dans le sang et la gestion des réserves est régulée par deux hormones pancréatiques essentielles : l’insuline et le glucagon.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


L’apport de sucre dans l’alimentation

Au plan nutritionnel, 50 % de l’apport d’énergie journalier moyen, soit 1 250 kilocalories chez un adulte moyennement actif, doit être apporté par le sucre. Mais attention, il est préférable que cet apport soit assuré par des sucres lents, l’amidon contenu dans le pain, les pâtes ou le riz. Par exemple une assiette de pâtes apporte environ 80 grammes de glucose sous forme d’amidon.

Ainsi la digestion assez lente de l’amidon évite des à-coups de la glycémie qui fatiguent le pancréas. Pour une consommation moyenne journalière d’énergie de 2 500 kilocalories, un apport en sucres d’environ 350 grammes sera nécessaire, dont 90 % sous forme de sucres lents et 10 % (ou 35 grammes) par jour sous forme de sucres rapides – c’est-à-dire de glucose libre présent dans les jus de fruits, sodas ou desserts variés (l’OMS recommande de ne pas dépasser 50 grammes par jour).

Le risque de surpoids lié à une consommation trop élevée de sucres rapides est souvent lié à un excès d’apport alimentaire. Ainsi une canette de soda contient jusqu’à 35 grammes, un verre de jus d’orange 15 grammes, un yaourt sucré 10 grammes, et beaucoup de plats préparés du commerce affichent plus de 5 grammes de glucose par portion de 100 grammes.

Pourquoi certaines personnes n’aiment pas le sucre ?

Une attirance vers les aliments sucrés, bonbons, gâteaux ou desserts variés dépend surtout de l’éducation et des habitudes prises pendant l’enfance. Chacun possède dans ses papilles gustatives des récepteurs du goût, ces minuscules détecteurs du goût sucré. Certaines personnes possèdent un variant génétique du récepteur TAS2R38, leur conférant un nombre de récepteurs plus élevé. Ces personnes auront tendance à moins aimer le sucre et seront plus vite écœurées en cas d’excès.

La plupart des édulcorants ou faux sucres comme l’aspartame et l’acésulfame sont également perçus par les récepteurs du goût amer, et ceci de façon variable selon les individus, d’où parfois la tentation de revenir au goût sucré naturel du glucose ou du fructose contenu dans les fruits.

Peut-on parler d’addiction au sucre ?

L’attirance pour le goût sucré est innée chez l’homme, sans doute parce que le glucose est un carburant essentiel pour nos cellules.

La perception du goût se traduit par une information apportée au cerveau. Ces informations sont perçues par le circuit du plaisir et apportent un ressenti agréable. D’autres sont envoyées à l’hypothalamus qui en profite pour réguler l’appétit en réduisant à certains moments de la journée la capacité de réponse des récepteurs au goût sucré.

Curieusement, il existe des récepteurs du goût sucré dans l’intestin, le pancréas et même le cerveau. Mais comment le sucre nous procure-t-il du plaisir ? Il active deux régions du cerveau, l’insula puis l’amygdale qui nous font ressentir du plaisir. Pour y parvenir, le cerveau stimule la libération d’une hormone clé de l’envie, la dopamine. Cette clé stimule le circuit du plaisir et l’insula s’active.

Pourquoi les sucres rapides comme le glucose ou le saccharose contenus en excès dans certaines boissons ou pâtisseries peuvent-ils être addictifs ? Tout simplement parce que le plaisir déclenché par le sucre dans le cerveau est identique à l’effet procuré par une drogue et provoque une addiction.

Au cours de l’évolution, l’espèce humaine n’a pas eu beaucoup d’occasions de se prémunir d’un excès de sucres rapides, puisqu’Homo sapiens frugivore et omnivore, du paléolithique, consommait moins de 30 grammes de sucres rapides par jour. À cette dose aucun effet addictif.

Le cerveau trompé par les édulcorants

Le rôle des édulcorants est de remplacer le glucose des aliments par du faux sucre qui active les récepteurs du goût sucré. En effet, ça marche : le cerveau perçoit bien un goût sucré et cela calme l’appétit pendant plusieurs minutes sans apporter de calories. Oui, mais les récepteurs présents dans l’intestin préviennent le cerveau qu’une livraison de glucose est prévue en informant les organes. Très vite, les cellules constatent que le glucose n’arrive pas, ce qui déclenche alors un regain d’une envie de sucre.

Heureusement, cet effet ne se produit que lors de la prise fréquente et répétée d’édulcorants au cours de la journée, souvent observée avec la consommation abusive de sodas contenant du faux sucre. La solution pour éviter ces phénomènes d’addiction est de déconditionner le cerveau à l’excès de sucre et de se réhabituer à consommer moins de boissons et d’aliments sucrés, pas trop souvent dans la journée, et de limiter l’apport de sucres rapides à moins de 50 grammes par jour.

Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport convenable en sucres lents, limitant ainsi le risque de diabète. L’alimentation doit être équilibrée et associée à une activité physique suffisante pour assurer une dépense énergétique adaptée, limitant le risque d’obésité par transformation de l’excès de glucose alimentaire sous forme de graisse.

The Conversation

Bernard Sablonnière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

02.04.2025 à 12:21

Conversation avec Alain Aspect : des doutes d’Einstein aux Gafam, où s’arrêtera la physique quantique ?

Alain Aspect, Professeur (chaire Augustin Fresnel) à l'Institut d'Optique Graduate School, Université Paris-Saclay

Alain Aspect, Prix Nobel de physique 2022, revient sur quelques étapes marquantes de sa carrière, sur les limites du monde quantique et sur l’essor des technologies quantiques aujourd’hui.
Texte intégral (5307 mots)

Alain Aspect est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d’« intrication quantique », qui est au cœur de nombreuses technologies quantiques de nos jours.

Il a aussi plus largement contribué au domaine, souvent en explorant d’autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.

Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd’hui. Alain Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l’essor des technologies quantiques aujourd’hui, entre recherche publique et recherche industrielle.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s’écharpaient sur l’interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d’« intrication quantique ». L’intrication quantique, c’est le fait que deux particules séparées dans l’espace partagent des propriétés — à un point tel que l’on ne peut pas décrire complètement l’une sans décrire l’autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l’information instantanément sur de très grandes distances, c’est-à-dire plus rapidement que la vitesse de la lumière.

Avec vos expériences, vous avez montré qu’Einstein avait tort de ne pas admettre cette idée — ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?

Alain Aspect : Cette expérience m’a passionné parce qu’elle met vraiment en jeu la conception du monde d’Einstein.

Pour compléter le cours de l’histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J’ai eu l’honneur de montrer qu’Einstein avait tort dans une certaine mesure, mais j’ai mis ainsi en relief son immense mérite d’avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l’intrication, dont les gens n’avaient probablement pas réalisé toute l’importance auparavant.

Mais j’ai beau avoir démontré qu’Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l’admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu’il a écrit est incroyable. John Bell l’avait aussi remarqué et avait résumé les choses ainsi :

« Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). » Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.

La physique quantique expliquée simplement par Alain Aspect, Prix Nobel de physique, The Conversation France, 2025.

Vous avez fait d’autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?

A. A. : D’une part, à la fin des années 1980, j’ai travaillé avec Claude Cohen-Tannoudji au développement d’une méthode pour refroidir les atomes — qui est sa spécialité.

Comme la température est associée à la vitesse d’agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s’appelle le refroidissement « en dessous du recul du photon » parce qu’on a réussi à ralentir l’agitation thermique par de toutes petites quantités — plus petites que ce que l’on croyait possible avec les lois de la physique quantique, de l’ordre du milliardième de degré. Ainsi je suis heureux et fier d’avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.

Une autre première mondiale me tient à cœur. C’est un sujet dont nous avons eu l’idée avec mon collaborateur Philippe Bouyer, en sortant d’une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé « localisation d’Anderson », qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style « Il serait intéressant de mettre des atomes dans un milieu désordonné » (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s’est regardés dans la voiture et on s’est dit : « Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d’observer la localisation d’Anderson des atomes dans un désordre optique. » En effet, le but du groupe de recherche d’optique atomique, que j’ai monté à l’Institut d’optique, est de faire avec des atomes ce que l’on sait faire avec les photons ou les électrons. Par exemple, le groupe — dont je ne fais plus partie bien sûr, je suis à la retraite — essaye aujourd’hui de refaire mon expérience sur l’intrication quantique avec des atomes.

Pour revenir à la localisation d’Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d’observer directement la localisation d’Anderson. Nous avons aussi pu photographier une « fonction d’onde atomique », c’est-à-dire la « forme » d’un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s’intéresse à ce sujet — ils ont été tellement étonnés de voir directement une fonction d’onde photographiée ! La localisation d’Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.

Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l’intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?

A. A. : Je vais vous donner la réponse standard à cette question — mais je dois préciser qu’à mon avis, cette réponse standard ne fait que reculer le problème d’un cran.

Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n’observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort — et on ne l’observe pas. On dit que c’est à cause de la « décohérence ».

La décohérence, c’est le fait que quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d’une façon plus ou moins nette, mais de façon inévitable. Une partie de l’information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n’ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l’extérieur soient petites pour conserver les caractéristiques quantiques. En d’autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.

C’est l’objectif de tous les gens qui essayent aujourd’hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l’on appelle des « bits quantiques ». Ce sont des particules quantiques que l’on arrive à intriquer sans qu’elles interagissent avec le monde extérieur.

Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d’isoler davantage du monde extérieur, ou bien est-ce qu’il y a une limite intrinsèque, un nombre de particules que l’on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?

A. A. : Aujourd’hui, on a réussi à observer le phénomène d’intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l’autre côté, dans n’importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d’ordres de grandeur entre les deux échelles, c’est un intervalle absolument gigantesque. D’où la question : et s’il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l’instant, on ne connaît pas cette limite.

Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.

Il se trouve que je suis cofondateur d’une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j’ai très envie que l’ordinateur quantique tienne ses promesses. Mais, d’un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu’il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l’ordinateur quantique marche, et je suis gagnant parce qu’il y a une application à des phénomènes que j’ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.

Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?

A. A. : Non, pour l’instant, on n’en sait pas plus que ce que je vous ai dit, c’est-à-dire que la décohérence est le fait qu’il y a une partie de l’« information quantique » qui fuite vers l’extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive — donc il faut isoler les systèmes de plus en plus si on veut qu’ils restent quantiques.

Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.

En effet, on décrit les particules quantiques grâce à leur « état » — c’est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l’ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l’« espace des états », c’est-à-dire l’ensemble de toutes les possibilités, est d’une taille absolument extraordinaire. Il suffit d’avoir 200 ou 300 bits quantiques intriqués pour que le nombre d’états possibles soit plus grand que le nombre de particules dans l’univers. Dans cet espace des états, on n’est pas à l’abri d’un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence — un petit sous-ensemble de l’espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l’immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.

Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique « topologique » par exemple, c’est bien de cela qu’il s’agit. Mais jusqu’à présent, on tâtonne encore dans ce domaine.

Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d’un cran ?

A. A. : En physique, il y a des choses que l’on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d’autres, qui sont absolument fonctionnelles – on sait qu’elles décrivent correctement les phénomènes que l’on observe – mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter « à la main », comme on dit. C’est le cas de la décohérence, mais c’est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.

Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd’hui, les grandes questions que se posent les chercheuses et les chercheurs ?

A. A. : Je vais d’abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche… Je m’intéresse à ces questionnements, mais je ne contribue plus à les formuler.

Cela étant, il me semble qu’il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu’il y a un problème entre la relativité générale et la physique quantique. C’est un problème de théoriciens, bien en dehors de mon domaine de compétences.

En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d’observer le régime quantique avec des objets « macroscopiques », en l’occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l’on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu’on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.

C’est une voie de recherche qui a l’avantage de ne pas être à l’échelle de décennies, mais plutôt à l’échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.

Quelle taille font ces membranes ?

A. A. : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d’atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d’épaisseur.

Ceci étant, ce n’est pas tant leur taille, mais leur fréquence de vibration qui est importante ici — c’est ça qui leur permet d’exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l’on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le « quantum de vibration » (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l’énergie thermique typique, c’est-à-dire quand la membrane vibre assez haut, l’agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.

Y a-t-il d’autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?

A. A. : Il faut bien sûr parler de tous ces efforts pour réaliser l’ordinateur quantique, qui suivent des voies toutes très intéressantes d’un point de vue de la physique fondamentale.

Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l’électricité peut se propager sans résistance – encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l’on peut exploiter comme bits quantiques. À l’heure actuelle, on ne sait rendre des matériaux supraconducteurs qu’à très basse température.

L’avantage des objets quantiques naturels comme les photons, les ions et les atomes, c’est qu’ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c’est une bénédiction.

Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.

Et, en fait, quand on regarde l’histoire de la physique, on s’aperçoit qu’il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d’une façon beaucoup plus simple ou contrôlée. C’est pour cela je trouve que c’est intéressant de commencer par essayer l’ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l’Institut d’optique, ou la start-up Quandela avec des photons.

On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les « avantages quantiques » déjà démontrés par les technologies opérationnelles aujourd’hui ?

A. A. : En ce qui concerne les gravimètres, c’est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n’est pas meilleure que le meilleur des gravimètres classiques… sauf qu’au lieu de peser une tonne et d’avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c’est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d’un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d’éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.

Et pour l’ordinateur quantique ?

A. A. : En ce qui concerne l’ordinateur quantique, il faut d’abord définir le terme « avantage quantique ». Lorsqu’on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s’était jamais posé, on peut douter de l’intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu’il me donne le résultat d’un calcul infaisable ? Bien sûr que non. Certaines annonces d’avantage quantique relèvent d’une présentation analogue.

Par contre, ici à l’Institut d’optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le « problème d’Ising ». Il s’agit de trouver la configuration d’énergie minimale d’un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu’avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l’« avantage quantique ».

Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d’approximer le résultat à 300 particules, mais ils n’étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n’avait rien pour le vérifier. Quand ils ont constaté qu’ils ont trouvé la même chose, ils étaient tous contents. C’est une compétition saine — c’est l’essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.

J’en profite pour dire qu’il y a une deuxième acception du terme « avantage quantique ». Elle se situe sur le plan énergétique, c’est-à-dire qu’on a de bonnes raisons de penser qu’on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d’énergie. Dans le contexte actuel de crise de l’énergie, c’est un avantage quantique qui mérite d’être creusé. On sait ce qu’il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d’une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C’est vraiment un problème technologique qui paraît surmontable.

En somme, l’avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d’énergie.

Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables — par exemple l’ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d’erreurs, Microsoft en février aussi avec des qubits « topologiques ». Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?

A. A. : L’arrivée des géants du numérique, c’est tout simplement parce qu’ils ont énormément d’argent et qu’ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l’ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.

En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques « topologiques ». Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n’est vraiment pas étayée par l’article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs — c’est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.

Le communiqué de presse prétend qu’ils ont observé les fameux « fermions de Majorana » — un candidat au poste de bit quantique « topologique », c’est-à-dire dans le fameux sous-ensemble de l’espace des états qui serait protégé de la décohérence.

De leur côté, les chercheurs, dans l’article, disent qu’ils ont observé un phénomène qui pourrait — qui pourrait ! — être interprété, peut-être, par des fermions de Majorana. C’est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu’ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu’on n’est même pas sûr d’en avoir un seul. Je vous laisse apprécier !

Cette implication de la recherche privée risque-t-elle de déplacer l’engouement de la recherche publique vers d’autres sujets ? Quel regard portez-vous sur l’équilibre entre recherche publique et recherche privée ?

A. A. : Il y a des choses qui sont à la mode à un moment, puis qu’on oublie. Mais c’est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts — on les a répertoriés tout à l’heure : photons, atomes, ions, circuits supraconducteurs, silicium… Je leur réponds, encore aujourd’hui, que je suis incapable de le leur dire. C’est le rôle de la puissance publique de financer le long terme.

Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C’est ça, la sélection naturelle des idées.

Les acteurs privés ont d’ailleurs tous misé sur des candidats différents pour leurs bits quantiques…

A. A. : C’est vrai, mais une des caractéristiques du privé, c’est d’être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n’est pas le bon, ils vont instantanément arrêter et passer à un choix qui s’est révélé meilleur. D’ailleurs, sur le plan de l’ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.

Il faut reconnaître que ces acteurs privés mettent beaucoup plus d’argent que le public, en revanche, ils n’ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d’argent pour accélérer la recherche.

La recherche demande aussi une maturation des idées ; et ce n’est pas parce que vous avez dix fois plus d’argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J’ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d’évaluation des systèmes de recherche en France, en Allemagne et dans d’autres pays.

De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu’on appelle « blancs ». Je pense qu’il n’est pas illégitime qu’un État qui met beaucoup d’argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu’il mette de l’argent là-dedans. Le point essentiel, c’est de laisser la place à d’authentiques sujets blancs, proposés par les chercheurs alors qu’ils ne figuraient dans aucun programme. C’est grâce à un projet non fléché que nous avons pu observer la localisation d’Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.

Et puis il faut aussi que l’information circule pour que d’autres chercheurs s’emparent des avancées, et puissent les adopter. D’où l’importance des publications, qui sont l’occasion de partager ses résultats avec les autres chercheurs ; et d’où les réserves que l’on doit avoir sur la confidentialité, même s’il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.

The Conversation

Alain Aspect est co-fondateur de la start-up Pasqal.

31.03.2025 à 16:27

Pourquoi les déchets plastiques ne se dégradent-ils jamais vraiment ?

Aicha El Kharraf, Doctorante en chimie des matériaux et environnement à Géosciences Rennes & Institue des sciences chimiques de Rennes, Université de Rennes

Les plastiques ne disparaissent jamais vraiment. En se fragmentant, ils deviennent des polluants invisibles, encore plus dangereux pour notre environnement et notre santé.
Texte intégral (1769 mots)
Si l’action combinée des vagues et du soleil a tendance à faire fondre les humains, elle fragmente les plastiques et relargue CO<sub>2</sub> et additifs… sans les faire disparaître complètement. Brian Yurasits/Unsplash, CC BY

Les plastiques sont partout, de nos océans à nos poumons. Mais contrairement à ce que l’on pourrait croire, ils ne disparaissent jamais vraiment. En se fragmentant, ils deviennent des polluants invisibles, encore plus dangereux pour notre environnement et notre santé.


Les plastiques ont été créés pour être résistants et durables. Chaque année, plus de 12 millions de tonnes de plastique finissent dans les océans ; mais contrairement à ce que l’on pourrait croire, leur disparition ne signifie pas qu’ils cessent d’exister. Au contraire, ils se transforment : en microplastiques, en nanoplastiques, libérant même des gaz toxiques et de nombreux additifs chimiques – les fameux bisphénols ou encore des phtalates.

Ironiquement, c’est ce qui les rend si intéressants pour l’industrie et la société en général qui les rend aussi quasiment indestructibles. En effet, les plastiques sont conçus pour durer. Leur structure chimique, qui repose sur un assemblage de longues chaînes de carbone, les rend particulièrement résistants à la dégradation et à la biodégradation. Contrairement au bois, au papier, aux déchets organiques ou au coton, les polymères plastiques ne sont pas digérables par la plupart des microorganismes comme les bactéries et champignons.

Mais leur résistance ne vient pas uniquement de leur structure : des additifs chimiques, comme des stabilisants UV, qui protègent le plastique contre les UV, ou des retardateurs de flamme, sont ajoutés pour améliorer leurs propriétés et ralentir leur dégradation.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une fragmentation qui aggrave la contamination

Au lieu de disparaître, les plastiques se fragmentent sous l’effet du soleil, des vagues et des frottements avec le sable ou les rochers. Cette décomposition progressive génère des microplastiques (moins de 5 millimètres) et des nanoplastiques (moins de 1 000 nanomètres), invisibles à l’œil nu mais persistent dans l’environnement.

L’exposition aux rayons ultraviolets (UV) casse progressivement les liaisons moléculaires des polymères dans un processus appelé photodégradation. Mais même sous une exposition prolongée, il faut des décennies pour qu’un simple sac plastique commence à se fragmenter. Dans les océans, les courants et les vagues accélèrent la fragmentation des déchets plastiques et favorisent la formation des micro et nanoplastiques.

Nos travaux en cours montrent que ce phénomène va bien au-delà de la simple fragmentation. En laboratoire, nous avons observé que le polyéthylène, exposé aux UV et aux forces mécaniques de l’eau, produit des microplastiques et nanoplastiques à un rythme accéléré. Et une libération importante d’additifs chimiques. Après quelques mois d’exposition, des substances telles que le dioxyde de titane migrent hors du polymère et contaminent l’eau.

Pis, notre étude montre que la photodégradation du polyéthylène produit des gaz à effet de serre, notamment du méthane, CH4 et du dioxyde de carbone, CO2 (de l’ordre de 300 grammes par kilogramme de polyéthylène d’après nos expériences). En d’autres termes, le plastique ne se contente donc pas de polluer : il contribue aussi au changement climatique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une pollution omniprésente et invisible

Les micro et nanoplastiques, légers et quasi invisibles, voyagent à travers tous les compartiments environnementaux. Dans l’eau, ils sont ingérés par les poissons et les mollusques, entrant ainsi dans la chaîne alimentaire. Dans les sols, ils perturbent la biodiversité et la fertilité des terres agricoles. Dans l’air, ils forment des aérosols transportés par le vent, qui peuvent être inhalés par les humains et la faune. Ils ont même été retrouvés dans la neige des montagnes et les pluies des zones protégées.

schéma montrant la dégradation du plastique
Schéma illustrant la dégradation du plastique par les UV et les vagues, menant à la formation de micro et nanoplastiques, au relargage d’additifs, à l’émission de gaz et à la contamination des écosystèmes aquatiques. Aicha El Kharraf, Fourni par l'auteur

Plus préoccupant encore, des microplastiques ont été détectés en 2024 dans l’eau potable, tant en bouteille qu’au robinet. Face à cette situation, le Syndicat des eaux d’Île-de-France envisage par exemple d’installer des filtres membranaires pour tenter de limiter la contamination.

Recycler, est-ce suffisant ?

Recycler davantage semble une solution évidente, mais en réalité, seule une fraction des plastiques produits dans le monde est réellement recyclée. La majorité est enfouie, incinérée ou dispersée dans l’environnement.

Les réglementations évoluent, mais restent limitées. En France, la loi Agec de 2020 interdit l’utilisation de microbilles plastiques dans les cosmétiques par exemple ; mais 63,1 % des microplastiques issus de l’usure des pneus et des textiles passent encore entre les mailles du filet.

Quelles solutions pour freiner cette pollution invisible ?

Réduire la production de tous les types de plastiques est la solution la plus efficace. Aujourd’hui, le recyclage reste limité, notamment à cause des additifs chimiques, dont la composition reste souvent secrète. Cette opacité complique leur réutilisation et réduit la qualité des plastiques recyclés. Il est donc crucial de limiter ces additifs, non seulement pour améliorer le recyclage, mais aussi parce que beaucoup sont toxiques pour l’environnement et se retrouvent dans l’eau, l’air et les organismes vivants.

D’autres pistes existent : développer des matériaux réellement biodégradables, améliorer la filtration des eaux usées en prenant en considération l’ensemble des produits de dégradation des plastiques (micro et nanoparticules), mettre en place des méthodes standardisées pour la quantification des micro et nanoparticules dans l’environnement et explorer le potentiel de certaines bactéries capables de dégrader les plastiques.


À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?


Mais sans une action forte à la source, cette pollution invisible continuera de s’accumuler. Le plastique n’est pas qu’un simple déchet : c’est un polluant insidieux qui s’infiltre partout, des sols à notre alimentation. Il est encore temps d’agir, mais sans une prise de conscience et des mesures drastiques, cette pollution pourrait bientôt devenir irréversible.


À lire aussi : Pollution plastique : pourquoi ne rien faire nous coûterait bien plus cher que d’agir


The Conversation

Aicha El Kharraf a reçu des financements de CNRS.

30.03.2025 à 16:36

Nous héritons de la génétique de nos parents, mais quid de l’épigénétique ?

Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier

Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier

Les marques épigénétiques sont reproduites lorsque les cellules se divisent, mais peuvent-elles l’être entre deux générations&nbsp;?
Texte intégral (1877 mots)

Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?


À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).

À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).

L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.

Des « marque-pages » dans notre génome

Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».


À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard


Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.

Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.

Des transmissions épigénétiques chez certaines espèces

Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.

On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.

Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).

L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.

Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.

Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.

Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.

Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.

The Conversation

Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).

Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.03.2025 à 16:36

La pomme, reine des vergers… et des pesticides

Maël Baudin, Enseignant-chercheur en interactions plantes-microorganismes, Université d'Angers

Bruno Le Cam, Directeur de Recherche INRAE Phytopathologiste, Inrae

Afin de lutter contre la maladie de la tavelure, les pommiers sont les cultures les plus traitées en France. Comment réduire cette dépendance aux traitements&nbsp;?
Texte intégral (2423 mots)
Pour lutter contre la tavelure, un pommier doit être traité de nombreuses fois par an. Nathan Hulsey/Unsplash, CC BY

La pomme est le fruit préféré des Français et le plus cultivé en France. Mais la pomme ne se distingue pas uniquement par sa popularité, elle figure également en tête des cultures les plus traitées en France, notamment en raison du champignon Venturia inaequalis, qui est responsable de la maladie de la tavelure. Comment réduire cette dépendance aux traitements ?


Un pommier malade va produire des pommes tachées. Les fruits tachés ne sont pas nocifs pour la santé humaine, mais ne peuvent être ni vendus ni exportés. C’est la raison pour laquelle les arboriculteurs utilisent des fongicides entre 15 et 20 fois par an, un chiffre qui peut grimper jusqu’à 40 traitements sur les variétés les plus sensibles lors de printemps particulièrement pluvieux. À titre de comparaison, les producteurs de blé appliquent au maximum trois traitements fongicides par an.

Symptômes de tavelure sur fruit dûs au champignon Venturia inaequalis. B. Le Cam, Inrae, Fourni par l'auteur

Les vergers menés en agriculture biologique ne sont pas épargnés par cette maladie. Ils sont souvent autant traités voire plus que les vergers conventionnels, car les fongicides utilisés en agriculture biologique, comme le cuivre et la bouillie sulfocalcique, sont plus facilement lessivés par les pluies que les fongicides de synthèse. C’est ainsi qu’au cours de sa carrière, un arboriculteur parcourra en moyenne une distance équivalente à un tour du monde avec son pulvérisateur pour protéger son verger de 20 hectares ! Éliminer ce champignon est particulièrement difficile, car il est présent non seulement dans les vergers, mais aussi sur les pommiers dans les habitats sauvages qui, nous le verrons, servent de réservoir de virulence.

De plus, ce champignon s’adapte rapidement aux diverses méthodes de lutte déployées. Pour tenter de pallier ces difficultés, notre équipe à l’IRHS d’Angers développe actuellement une stratégie tout à fait inédite chez les champignons qui, au lieu de tuer l’agent pathogène, l’empêche de se reproduire.

Le pommier et la tavelure, de vieux compagnons de route

La tavelure du pommier sévit partout dans le monde. Afin de localiser son origine, nous avons réalisé un échantillonnage de souches de V. inaequalis à l’échelle mondiale, à la fois sur des variétés en vergers et sur des espèces de pommiers sauvages présentes dans les habitats non cultivés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Nos travaux de génétique des populations ont révélé que la tavelure partage avec l’espèce asiatique sauvage, Malus sieversii, le même centre de diversité génétique situé dans les montagnes du Tian Shan, à la frontière du Kazakhstan et de la Chine. Dans ce site majestueux classé au patrimoine universel de l’Unesco pour la valeur de ses ressources génétiques, ce Malus, ancêtre du pommier domestiqué, continue de coévoluer avec son agent pathogène.

Les analyses historiques et génétiques menées sur le pommier montrent que sa domestication a commencé en Asie centrale, il y a 7 000 ans, à partir de Malus sieversii, pour se poursuivre jusqu’en Europe avec des hybridations successives entre différentes espèces de Malus; par exemple, Malus orientalis dans le Caucase et Malus sylvestris en Europe. Tout au long de ce processus de domestication, le champignon a dû gagner en virulence pour s’adapter aux gènes de résistance du pommier introduits par hybridations successives.

Pourquoi l’ancêtre du pommier est-il menacé en Asie Centrale ? Inrae.

À partir du XVIe siècle, au moment de la découverte des nouveaux continents, l’Europe a servi de tête de pont à la diffusion ensemble du pommier domestiqué et de la tavelure, ce qui fait que la maladie provoque aujourd’hui des dégâts sur tous les continents.

De quelle façon les voyages de la tavelure des habitats sauvages vers les vergers ruinent-ils les efforts des sélectionneurs ?

Au cours des quarante dernières années, l’activité humaine a facilité, de manière totalement fortuite, l’introduction dans les vergers d’une population de tavelure provenant de l’habitat sauvage selon un scénario comparable à celui du « cheval de Troie ». L’histoire débute en 1914, aux États-Unis, avec des travaux de sélectionneurs qui cherchaient à introduire par hybridation dans le pommier le gène de résistance Rvi6, qui confère une résistance totale à la tavelure.

Issu de l’espèce ornementale Malus floribunda, le gène Rvi6 est rapidement devenu la principale source de résistance introduite dans les programmes de sélection à travers le monde. Après plusieurs décennies de croisements, les premières variétés portant le gène Rvi6 issues de ces travaux de sélection ont été plantées en Europe dans les années 1980. Cependant, quelques années après leur plantation, des symptômes de tavelure ont commencé à apparaître dans les vergers.

Une analyse génétique des souches virulentes du champignon a révélé que la résistance du gène Rvi6 était contournée par une population du champignon, présente de manière insoupçonnée en Europe, non pas dans les vergers, mais sur des pommiers sauvages. En plantant des variétés nouvelles porteuses du gène Rvi6, l’activité humaine a ainsi involontairement facilité l’installation de cette population virulente dans des vergers non protégés par des fongicides. Cette étude met en lumière, une fois de plus, le rôle crucial de l’habitat sauvage en tant que réservoir potentiel de virulence et de maladies susceptibles d’affecter les agrosystèmes.

Chronique d’une perte de résistance chez le pommier, Inrae.

Des vergers sans fongicide ? Un changement de paradigme s’impose

Le plan EcoPhyto, qui ambitionne de diminuer de 50 % l’usage des pesticides, voire de les éliminer complètement, suscite des inquiétudes quant à sa faisabilité parmi les producteurs et représente un véritable défi pour les scientifiques.

En effet, les variétés de pommes les plus cultivées en France sont particulièrement sensibles à la tavelure, et non seulement la présence de tâches sur les fruits est inacceptable dans les circuits de distribution, mais toute possibilité d’exportation est également interdite.

À moins de convertir l’ensemble des vergers de pommiers en agriculture biologique et d’assouplir sensiblement la réglementation stricte sur la présence de taches sur fruits, imaginer se passer des fongicides de synthèse paraît aujourd’hui illusoire. La situation est similaire à l’étranger dans les grands pays producteurs et exportateurs de pommes, où les mêmes variétés sensibles à la tavelure dominent le marché.

Face à ce constat, comment changer la donne ? Faudrait-il envisager de réglementer voire d’interdire la plantation de variétés très sensibles à la tavelure ? Dans un contexte de sortie des pesticides, cette mesure radicale pourrait s’avérer nécessaire sous réserve que les producteurs soient accompagnés financièrement dans cette période de transition.

En l’absence de contraintes imposées par les politiques publiques, telles que des amendes sur l’application excessive de fongicides, les mêmes variétés gourmandes en traitements chimiques continueront de dominer le marché. Il serait également possible d’envisager la création d’un « pesti-score », une telle information portant sur la quantité de traitements appliqués sur les vergers pourrait participer au changement de paradigme attendu.

Sur le plan international, la recherche académique et les filières horticoles consacrent également beaucoup d’efforts pour lutter contre cette maladie. Toutefois, le long délai incompressible nécessaire pour amener de nouvelles variétés sur le marché reste un défi majeur en cultures pérennes. Substituer les variétés les plus sensibles par de nouvelles variétés porteuses de gènes de résistance provenant de pommiers sauvages reste réaliste, mais prendra du temps.

À court terme, une solution envisageable pour assurer cette transition pourrait résider dans la relance de campagnes de promotion et de sensibilisation auprès du grand public en faveur de variétés de pommes peu sensibles à la tavelure telles que la reine des reinettes ou la Chanteclerc, mais qui n’avaient pas rencontré à leur sortie le succès escompté face aux variétés dominantes. Une telle stratégie permettrait de diversifier les plantations en verger et de réduire ainsi l’usage des fongicides.

Combinaison de stratégies et de moyens

L’histoire récente nous enseigne toutefois l’humilité face à la complexité du problème : la tavelure présente une telle diversité qu’elle est capable de s’adapter aux résistances naturelles du pommier. Dès lors, l’enjeu va consister à protéger ces variétés en mettant en œuvre au verger une combinaison de stratégies visant à réduire la taille des populations de tavelure et ainsi prolonger l’efficacité des résistances, par différents moyens depuis l’utilisation de stimulateurs de défense des plantes à une diversification optimale des variétés dans le verger, en s’appuyant sur la modélisation mathématique.

Comment les maths protègent les pommiers de la tavelure ? Inrae.

Parmi les pistes alternatives aux pesticides étudiées dans notre laboratoire, nous évaluons la possibilité de perturber la reproduction sexuée du champignon, une étape indispensable à sa survie hivernale. L’objectif visé n’est pas de tuer le champignon, mais bien de l’empêcher de survivre durant l’hiver. Si nous réussissons à inhiber sa reproduction sexuée indispensable à sa survie hivernale, alors nous aurons franchi une étape importante vers la réduction de la dépendance aux fongicides.

Le changement de paradigme de substitution des variétés particulièrement sensibles aux différents bioagresseurs du pommier nécessitera un renforcement conséquent des investissements publics et privés pour mettre en place un plan ambitieux de développement de variétés résistantes aux maladies et aux ravageurs, impliquant tous les acteurs de la filière (arboriculteurs, techniciens de terrain, metteurs en marché, consommateurs, scientifiques).

Cet investissement lourd, mais indispensable pour atteindre les objectifs fixés, devra dépasser la lutte contre la tavelure en intégrant la résistance à bien d’autres maladies et ravageurs du pommier. Le défi sera de développer des variétés résilientes moins gourmandes en pesticides adaptées à des systèmes durables de gestion des résistances. Une telle transition demandera une refonte profonde des méthodes de production ainsi qu’un changement des habitudes des consommateurs.

The Conversation

Baudin Maël a reçu des financements de l'ANR, l'INRAE et Horizon-europe.

LE CAM a reçu des financements de ANR, de INRAE et de la Région Pays de La Loire

20.03.2025 à 16:52

Infrastructures critiques : le rôle clé des algorithmes mathématiques

Bernard Fortz, Professeur en méthodes d'optimisation pour la gestion, Université de Liège

Dans un monde où l’efficacité et la sécurité des infrastructures critiques sont essentielles, les algorithmes mathématiques apportent des solutions innovantes pour répondre à des défis complexes.
Texte intégral (1219 mots)

Dans un monde où l’efficacité et la sécurité des infrastructures critiques sont essentielles, les algorithmes mathématiques apportent des solutions innovantes pour répondre à des défis complexes. En particulier, trois domaines clés où ils se révèlent indispensables : la réduction de la fraude par évasion tarifaire dans les transports en commun, l’optimisation de l’autoconsommation dans les communautés énergétiques et la protection des réseaux informatiques contre les attaques ciblées malveillantes.


Réduction de la fraude dans les transports en commun

L’évasion tarifaire dans les transports en commun, notamment dans les systèmes sans barrières physiques où les contrôles sont aléatoires, constitue un problème économique majeur pour les opérateurs. Les pertes engendrées par les passagers frauduleux peuvent être considérables, rendant nécessaire l’optimisation des stratégies de contrôle.

Une étude récente propose d’utiliser le jeu de Stackelberg pour modéliser l’interaction entre les opérateurs de transport, qui planifient les contrôles, et les passagers opportunistes qui cherchent à les éviter. Cette approche permet d’élaborer des stratégies d’inspection plus efficaces en planifiant les patrouilles de manière imprévisible, ce qui complique la tâche des fraudeurs.

Selon cette étude, la méthode améliore la gestion des contrôles en intégrant les comportements des passagers dans la planification. Le modèle utilise des stratégies mixtes pour établir des probabilités d’inspection, et des heuristiques ont été développées pour améliorer la qualité des solutions, même si l’optimalité n’est pas toujours garantie. Cette méthodologie peut être appliquée à différents systèmes de transport (métro, bus, tram, train…), permettant une réduction significative de l’évasion tarifaire.

Optimisation de l’autoconsommation dans les communautés d’énergie

Les communautés d’énergie, où les membres partagent l’énergie qu’ils produisent, stockent et consomment, représentent une voie prometteuse vers une transition énergétique plus durable. Ces communautés restent connectées au réseau public, mais visent à maximiser leur taux d’autoconsommation collective, réduisant ainsi leur dépendance à l’égard du réseau et leurs coûts énergétiques.

Un projet pilote, baptisé Smart Lou Quila a été développé par la start-up de Montpellier Beoga. Il permet aux sept membres de la communauté de se partager une électricité 100 % renouvelable et locale, produite par des panneaux photovoltaïques posés sur les toits des maisons et sur celui du stade municipal.

En collaboration avec ce projet pilote, un modèle de programmation linéaire en nombres entiers mixtes a été développé pour optimiser l’autoconsommation d’une communauté d’énergie. Un modèle linéaire en nombres entiers est une méthode d’optimisation mathématique où l’objectif est de maximiser ou minimiser une fonction linéaire, soumise à des contraintes également linéaires. Ce qui distingue ce modèle est que certaines ou toutes les variables de décision doivent prendre des valeurs entières (et non continues). Il est largement utilisé pour résoudre des problèmes impliquant des choix discrets, comme la planification, l’affectation ou les horaires, mais il est souvent plus complexe à résoudre qu’un modèle linéaire classique à cause de la contrainte d’intégralité.

Le modèle que nous avons développé gère l’utilisation des appareils électriques, le stockage d’énergie, ainsi que les échanges entre les membres de la communauté. Grâce à ce modèle, il a été démontré qu’une adhésion à une communauté énergétique peut réduire la consommation d’énergie provenant du réseau public d’au moins 15 %, avec des économies substantielles sur les factures. L’utilisation des outils de la recherche opérationnelle pour une meilleure gestion des communautés d’énergie était également l’objet de recherche du projet européen SEC-OREA (Supporting Energy Communities–Operational Research and Energy Analytics) auquel j’ai participé.

Protection des réseaux contre les attaques ciblées

Les réseaux de services, qu’ils soient de communication, de logistique ou d’infrastructures critiques, sont particulièrement vulnérables aux cyberattaques. Ces attaques cherchent à désactiver des nœuds spécifiques du réseau, provoquant des dysfonctionnements graves et perturbant le service.

Pour contrer ces menaces, une nouvelle approche fondée sur la théorie des jeux a été développée. La théorie des jeux est une branche des mathématiques qui étudie les interactions stratégiques entre des acteurs rationnels, appelés « joueurs ». Elle modélise les situations où les décisions de chaque joueur influencent les résultats des autres, qu’il s’agisse de coopération ou de compétition.

Notre approche modélise l’interaction entre un opérateur de réseau, qui tente de protéger ses infrastructures, et un attaquant cherchant à maximiser les dommages.

Les chercheurs présentent des formulations mathématiques pour optimiser la protection des nœuds critiques du réseau. Les nouvelles formulations mathématiques proposées surpassent les méthodes existantes, offrant une meilleure anticipation des attaques et une réduction des dégâts potentiels. Ces modèles sont applicables non seulement aux réseaux de communication, mais aussi à d’autres secteurs critiques tels que les infrastructures publiques et les systèmes médicaux.

Les défis auxquels sont confrontés les opérateurs de transport, les communautés énergétiques et les gestionnaires de réseaux sont variés, mais les algorithmes mathématiques offrent des solutions efficaces et adaptables. Qu’il s’agisse de maximiser les revenus des transports en commun, d’optimiser l’autoconsommation énergétique ou de protéger des réseaux contre des cyberattaques, les avancées en matière de modélisation et d’optimisation mathématique jouent un rôle central dans la sécurisation et l’optimisation de nos infrastructures critiques, en renforçant la résilience et la durabilité de nos systèmes face aux défis actuels et futurs.


Cet article a été écrit en collaboration avec le Dr Arnaud Stiepen, expert en vulgarisation scientifique.

The Conversation

Bernard Fortz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.03.2025 à 13:43

Les Français font-ils confiance aux sciences ?

Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université

L’édition 2025 du baromètre de l’esprit critique révèle des différences notables dans le rapport aux sciences selon les générations et les disciplines.
Texte intégral (1949 mots)
Les Français associent davantage l’esprit critique aux humanités qu’aux sciences exactes. NationalCancerInstitute/Unsplash, CC BY

L’édition 2025 du baromètre de l’esprit critique révèle des différences notables dans le rapport aux sciences selon les générations et les disciplines. Les jeunes font, par exemple, davantage confiance aux sciences que leurs aînés, mais leur tendance à privilégier les informations provenant de leur entourage et des réseaux sociaux les expose davantage à la désinformation, notamment en ce qui concerne les bonnes pratiques nutritionnelles.

Décryptage par Michel Dubois, sociologue et membre du comité scientifique du baromètre de l’esprit critique.


Comment évolue le rapport des Français aux sciences ? Se dirige-t-on vers une défiance comme aux États-Unis ?

Michel Dubois : En France, comme aux États-Unis, la défiance à l’égard des sciences reste un phénomène heureusement minoritaire. Ce que l’on observe aux États-Unis, depuis le retour de Donald Trump à la Maison Blanche, ce n’est pas tant un rejet de la science par l’opinion publique, qu’une volonté politique de faire des universités et des organismes de recherche des adversaires idéologiques. Il s’agit de couper les budgets, de licencier le personnel des agences fédérales, d’interdire la recherche sur un certain nombre de sujets jugés inutiles ou « déconseillés », mais plus fondamentalement de contester la légitimité des scientifiques à définir ce qui est un fait et ce qui ne l’est pas. Ce degré de politisation de la science est inédit dans l’histoire contemporaine des États-Unis et ses conséquences sont déjà perceptibles à travers la gestion chaotique de l’épidémie de rougeole au Texas.

En France, la situation est encore heureusement différente. L’édition 2025 du Baromètre de l’esprit critique confirme certaines des tendances positives mises en évidence lors de la dernière vague de l’enquête Les Français et la science. Par exemple, entre 7 et 8 enquêtés sur 10 considèrent que la science permet de comprendre qui nous sommes, et le monde dans lequel nous vivons. Ils sont autant à considérer qu’une affirmation a plus de valeur si elle a été validée scientifiquement ou que la science permet de développer de nouvelles technologies utiles à tous.

Quelles différences existe-t-il entre les générations concernant la confiance envers les institutions scientifiques ?

M. D. : L’édition 2025 du baromètre introduit un échantillon 15-24 ans qui peut être comparé à l’échantillon standard des 18-65 ans et plus. C’est l’occasion de souligner quelques résultats inattendus ou contre-intuitifs. Les études inutilement alarmistes ne manquent pas pour prétendre que les plus jeunes affichent une posture toujours plus critique à l’égard des sciences.

Or, nos résultats montrent le contraire : comparés aux 18 ans et plus, les 15-24 ans manifestent un plus grand intérêt pour les sciences. Les 15-24 ans manifestent également une plus grande confiance dans la communauté scientifique : ils sont plus nombreux que leurs aînés à considérer que la communauté scientifique est indépendante pour valider ses résultats (+13 points), ou que les scientifiques suivent des règles éthiques strictes (+9 points). Ce sont également les jeunes qui sont les plus impliqués dans des activités à caractère scientifique : la visite d’expositions scientifiques, la collaboration à des expériences de science participative ou la rencontre avec des chercheurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Constate-t-on des différences dans le rapport aux sciences humaines et aux sciences dites dures ?

M. D. : D’une façon générale, même si cela peut surprendre, l’esprit critique est davantage associé par nos répondants aux humanités qu’aux sciences exactes. Trois quarts d’entre eux considèrent faire preuve d’esprit critique et quand on leur demande de nommer les disciplines qui ont contribué à forger cet esprit durant leur scolarité, ils citent prioritairement le français, l’histoire-géographie, la philosophie et seulement ensuite arrivent les sciences de la vie et de la terre, les mathématiques, la physique ou la chimie. Ce résultat peut donner l’impression que les sciences exactes sont perçues comme des disciplines relativement dépourvues de questionnement réflexif. Cela doit sans doute nous inciter à revoir la manière dont on enseigne les sciences au collège et au lycée, afin de mieux mettre en valeur leur dimension critique.

Interrogés sur la façon dont ils perçoivent la scientificité des disciplines, nos deux échantillons se retrouvent pour voir dans la médecine, la biologie, la chimie et l’astrophysique, des sciences exemplaires. Tout comme ils convergent pour douter très majoritairement du caractère scientifique des horoscopes, de la naturopathie ou de l’homéopathie. Mais, entre ces extrêmes, les 15-24 ans se démarquent de leurs aînés par une attitude plus positive à l’égard de l’économie (+3 points), de l’histoire (+4 points), de l’écologie (+5 points), de la psychanalyse (5 points) et plus encore de la sociologie (+12 points).

Qu’est-ce qui fait que, dans la population générale, on accorde plus de valeur ou d’intérêt à certaines sciences ?

M. D. : En France comme ailleurs, l’attention accordée à une discipline dépend souvent des répercussions, positives et négatives, qu’on lui prête sur notre environnement ou sur nos conditions de vie. C’est relativement évident pour la médecine, la biologie ou plus généralement pour la recherche sur le vivant. Toutefois, cet intérêt ne signifie pas que les scientifiques bénéficient d’une légitimité de principe leur permettant de mener leurs travaux sans tenir compte des contraintes sociales et culturelles qui les entourent. Comme l’ont montré les enquêtes Les Français et la science, une écrasante majorité de Français estime nécessaire d’instaurer des règles encadrant le développement des sciences du vivant.

Y a-t-il un avant et un après-Covid en matière de confiance envers les sciences ?

M. D. : Si l’on s’en tient à une mesure générale de la confiance, les résultats que nous obtenons aujourd’hui ne sont pas très différents de ceux dont on disposait avant la période Covid. Toutefois, cette crise a mis en lumière de nouveaux enjeux pour le grand public : d’une part l’importance de l’indépendance de la recherche scientifique et, de l’autre, la nécessaire vigilance concernant les manquements à l’intégrité scientifique. On se souvient notamment des soupçons qui ont pesé pendant la crise Covid sur certains experts en raison de leurs liens d’intérêts avec de grands groupes pharmaceutiques ; ces liens étant souvent interprétés comme étant autant de conflits d’intérêts. Dans notre échantillon 18-65 ans et plus, il n’y a qu’un répondant sur deux à considérer que la communauté scientifique est indépendante pour valider ses résultats.

Par ailleurs, le nombre croissant de rétractations d’articles de l’équipe de l’Institut Méditerranée infection à Marseille – plus de 40 aujourd’hui – illustre les préoccupations liées à la fiabilité des publications scientifiques pendant la crise Covid. Et ils ne sont aujourd’hui que 6 répondants sur 10 à considérer que les scientifiques suivent des règles éthiques strictes. Plus qu’une remise en cause de la science, cette double tendance souligne une attente croissante de transparence et de régulation dans la production du savoir qui n’est pas très différente de celle que l’on peut mesurer, par ailleurs, dans la communauté scientifique.

L’édition 2025 du baromètre contient une section consacrée à nos croyances en matière d’alimentation. Quels en sont les enseignements généraux ?

M. D. : Cette année, le baromètre de l’esprit critique a voulu en savoir plus sur les pratiques et les croyances alimentaires. Est-il vrai par exemple qu’après un excès alimentaire, une cure détox est efficace pour nettoyer l’organisme ? Est-il vrai que les compléments alimentaires permettent de corriger une mauvaise alimentation ? Ou encore : est-il vrai que les hommes ont besoin de plus de viande rouge que les femmes ? Toutes ces propositions sont fausses, mais qu’en est-il de leur diffusion dans l’espace public ? Les résultats suggèrent que les opinions erronées au sujet de l’alimentation sont relativement courantes : 8 répondants sur 10 adhèrent à au moins une proposition fausse en matière d’alimentation.

La maîtrise des savoirs varie selon plusieurs facteurs, notamment le genre, avec une meilleure connaissance observée chez les femmes par rapport aux hommes, mais plus encore en fonction de l’âge. En matière d’alimentation, plus on est âgé et plus on a de chances de faire la différence entre une proposition vraie et une proposition fausse. Les 15-24 ans semblent manquer de repères.

Ce n’est sans doute pas sans rapport avec la façon dont ils s’informent en général. Ils se distinguent de leurs aînés par l’importance qu’ils accordent à leur entourage et aux réseaux sociaux. Et pour les informations liées à l’alimentation, ils sont près de 7 sur 10 à faire confiance aux professionnels de la médecine douce et alternative, 1 sur 2 aux influenceurs sportifs ou aux youtubeurs. Des constats ciblés qui devraient faire réfléchir celles et ceux qui travaillent sur la communication des messages de santé publique.


Entretien réalisé par Aurélie Louchart.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Michel Dubois a reçu des financements de l'Agence Nationale de la Recherche et du programme cadre Horizon Europe de l'Union Européenne

20.03.2025 à 00:00

Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice

Pauline Zarrouk, Chercheuse CNRS en cosmologie au Laboratoire de Physique Nucléaire et des Hautes Energies (LPNHE), Sorbonne Université

Une nouvelle carte 3D de l’Univers permet de mieux comprendre le mystère de l’énergie noire.
Texte intégral (1791 mots)
Les galaxies s’organisent en grandes structures, les filaments cosmiques. DESI collaboration, Fourni par l'auteur

DESI est une grande campagne d’observation astronomique. Son but ? Mesurer avec précision la position des galaxies dans l’espace, afin de traquer la mystérieuse « énergie noire » qui dominerait la manière dont l’Univers est en expansion aujourd’hui.

Pour cela, plus de 900 scientifiques de plus de 70 institutions dans le monde entier se sont alliés. Aujourd’hui, nous dévoilons nos nouveaux résultats sur l’histoire de l’expansion de l’Univers.


C’est en Arizona (États-Unis), au milieu du désert, que se trouve notre télescope Mayall de DESI, situé à l’observatoire de Kitt Peak. Avec son miroir principal de quatre mètres de diamètre, il observe le ciel depuis mai 2021. En trois ans, il a mesuré 15 millions de galaxies, collectant à la fois leur position dans le ciel et leur distance, grâce à ses 5 000 petits yeux robotisés.

À partir de la position des galaxies et de leur distance, nous publions aujourd’hui la cartographie tridimensionnelle des grandes structures de l’Univers la plus précise à ce jour.

Avec cette carte, nous voulons répondre à un mystère qui rend perplexes les astrophysiciens depuis sa découverte, il y a vingt-cinq ans : non seulement l’Univers est en expansion (cela, nous le comprenons), mais cette expansion s’accélère. Pour décrire cette accélération, notre modèle actuel de l’Univers suppose l’existence d’une énergie noire dont la forme la plus simple est une « constante » cosmologique. Les tout nouveaux résultats de DESI, combinés avec d’autres données, suggèrent que cette énergie noire varie avec le temps : elle ne serait donc pas constante.

Si ces observations ne résolvent pas à elles seules le mystère de l’énergie noire, elles donnent des pistes concrètes et quantitatives sur lesquelles appuyer les explorations futures.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La carte 3D des galaxies la plus précise à ce jour

Les galaxies ne sont pas réparties de manière aléatoire dans le ciel, comme on le voit sur la vidéo. Il y a des régions avec beaucoup de galaxies regroupées en amas ou en filaments, et d’autres régions sont beaucoup moins denses, qui forment des vides cosmiques. Cette structuration de la matière dépend de la gravité, qui attire les corps massifs entre eux, ainsi que du contenu de l’Univers en matière ordinaire, en matière noire et en énergie noire.

Les positions des 15 millions de galaxies observées par DESI en trois ans. Source : DESI collaboration and KPNO/NOIRLab/NSF/AURA/R. Proctor.

La technique d’analyse utilisée pour obtenir ces nouveaux résultats avec trois ans de données avait déjà été testée, raffinée et appliquée aux données collectées pendant un an par DESI. Elle s’appelle BAO, un acronyme plus sympathique que son nom complet (les « oscillations acoustiques des baryons » ou baryon acoustic oscillations).

Elle est fondée sur l’existence d’une distance caractéristique entre deux galaxies qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En mesurant cette distance caractéristique à différents moments de l’histoire de l’Univers, nous retraçons son expansion au cours de temps et nous pouvons ainsi étudier la façon dont cette expansion s’accélère.

Les oscillations acoustiques des baryons ont une taille caractéristique qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En étudiant ce motif, cette distance caractéristique entre deux galaxies, à différents moments de l’histoire de l’Univers, les chercheurs cartographient l’expansion de l’espace-temps afin de comprendre le mécanisme à l’origine de l’expansion accélérée de l’Univers au cours des derniers six ou sept milliards d’années. Gabriela Secara, Perimeter Institut, Fourni par l'auteur

DESI et notre compréhension de l’expansion de l’Univers

À ce jour, aucune théorie ne permet d’expliquer de manière satisfaisante le mécanisme à l’origine de l’accélération récente de l’expansion de l’Univers (il y a environ cinq ou six milliards d’années), d’où le nombre croissant de projets qui y sont consacrés.

Pour expliquer ce phénomène, le modèle actuel de la cosmologie suppose l’existence d’une composante exotique, appelée énergie noire, dont on cherche à déterminer les propriétés, en particulier si celles-ci évoluent avec le temps ou sont constantes.

Jusqu’à présent, c’est l’hypothèse la plus simple pour décrire l’énergie noire qui a été adoptée : il s’agit de la constante cosmologique, dont la valeur est déterminée par les observations, mais que l’on ne sait pas relier à un mécanisme physique.

Les nouveaux résultats de DESI avec trois ans de données sont en parfait accord avec ceux obtenus en avril dernier avec un an de données, et ils apportent les meilleures contraintes à ce jour sur les paramètres de notre modèle cosmologique actuel.

Toutefois, à mesure que la précision de nos données s’améliore, des craquelures dans le modèle commencent à surgir dès lors qu’on essaye d’expliquer, avec le même modèle, différentes observations de notre Univers.

De plus, les nouveaux résultats de DESI combinés à l’analyse des premiers photons émis dans l’Univers (fond diffus cosmologique) et des explosions d’étoiles (supernovae de type Ia) confirment la préférence pour un modèle où l’énergie noire varie au cours du temps — c’est ce que l’analyse avec un an de données avait déjà montré en avril et en novembre derniers. Cette préférence pour un modèle d’énergie noire dynamique par rapport à une constante cosmologique n’a pas encore atteint le seuil d’une découverte, mais s’est renforcée avec plus de données collectées par DESI.

Nous assistons peut-être à la fin de la constante cosmologique et à l’aube d’une avancée majeure sur la nature de l’énergie noire, plus de vingt-cinq ans après la découverte de l’accélération de l’expansion de l’Univers.

Un œil vers le futur

D’autres programmes d’observations du ciel visent également à sonder la nature de l’énergie noire et à tester la théorie de la gravité en utilisant la cartographie tridimensionnelle des galaxies comme DESI, mais aussi d’autres sondes cosmologiques.

Parmi ces autres sondes de l’Univers récent, deux sont particulièrement intéressantes et complémentaires de DESI : les supernovae de type Ia et le lentillage gravitationnel, qui provient des déformations de la forme des galaxies du fait de la présence de matière le long de la trajectoire des rayons lumineux.

Côté supernovae, l’analyse cosmologique des supernovae de type Ia du programme Zwicky Transient Facility (ZTF) en combinaison avec les données de DESI devrait apporter un éclairage prometteur.

Côté lentillage gravitationnel, le satellite européen Euclid, lancé en juillet 2023, et le programme décennal d’observation du ciel de l’observatoire Vera-Rubin (en construction au Chili, ndlr) — dont la première lumière est prévue pour l’été 2025 — apporteront de nouvelles données et de nouveaux résultats, qu’il sera très intéressant de comparer et de combiner avec l’échantillon final de DESI, d’ici fin 2026.

Le télescope DESI (en anglais). Source : National Science Foundation News.
The Conversation

Pauline Zarrouk a reçu des financements du CNRS Particules et Noyaux.

19.03.2025 à 12:32

« Severance » : le processus de réintégration décrypté par les neurosciences

Laetitia Grabot, Chercheur postdoctoral en neurosciences cognitives, École normale supérieure (ENS) – PSL

Comment les neurosciences expliquent-elles le processus de réintégration dans la série «&nbsp;Severance&nbsp;»&nbsp;? Est-il crédible ?
Texte intégral (2677 mots)

La série de science-fiction Severance dépeint un monde dystopique où une opération chirurgicale permet de séparer ses souvenirs au travail de ses souvenirs liés à sa vie privée. La saison 2, qui cartonne et dont l’épisode final sera diffusé le 21 mars 2025, met en avant une procédure qui permettrait de réintégrer ces deux pans de la personnalité. Qu’en disent les neurosciences ?


Cet article contient des spoilers des épisodes 1 à 6 de la saison 2.

Dans la série Severance, les employés de Lumon Industries sont dissociés entre leur « moi du boulot » et le « moi de la maison ». Le premier est ainsi entièrement dévolu à ses tâches professionnelles, sans interférences dues aux aléas de la vie quotidienne, et le second libre de vaquer à sa vie privée sans charge mentale due au travail. Cependant, malgré la promesse d’un équilibre travail/vie privée strictement parfait, les protagonistes ne vivent pas si bien leur dissociation. Le personnage principal, Mark Scout, tente une procédure de réintégration de ses deux « moi ». C’est Reghabi, une ancienne employée rebelle de Lumon qui s’en charge.

Dans l’épisode 3 de la saison 2, elle enregistre l’activité du cerveau de Mark après avoir posé des électrodes sur sa tête, comme on le fait de nos jours avec l’électroencéphalographie. Deux tracés en forme de vagues sont visibles, chacun d’eux représentant une partie des souvenirs de Mark. La procédure consiste à resynchroniser ces deux tracés, c’est-à-dire à les réaligner, pour réintégrer les deux « moi ».

Ce processus serait crédible à l’aune des connaissances actuelles en neurosciences. Connaître les recherches sur le sujet permet d’apprécier de nouvelles subtilités dans cette série, qui soulèvent déjà de nombreuses questions.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dissociation et réintégration des « moi »

L’activité cérébrale mesurée par électroencéphalographie, une technique qui consiste à poser des électrodes sur le cuir chevelu d’une personne, se présente effectivement sous forme de vagues d’activité. Les chercheurs étudient ce signal en le découpant en différentes oscillations, plus ou moins rapides, dont les noms correspondent à la liste de lettres grecques égrenées par Reghabi : delta, theta, alpha, beta, gamma.

L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma)
L’activité du cerveau enregistrée par électroencéphalographie (EEG, tracé en bleu) peut être découpée en différentes signaux correspondant à différentes bandes de fréquences (tracés en noir), de la plus lentes (delta) à la plus rapide (gamma). Données de l’auteur, CC BY-SA

Les oscillations delta sont par exemple très lentes, autour de 2 Hz, ce qui correspond à deux cycles par seconde, proche du rythme cardiaque après un effort, et souvent retrouvées pendant certaines phases du sommeil. Les oscillations gamma sont plus rapides, autour de 40 Hz (40 cycles par seconde), et sont impliquées dans de nombreuses fonctions cognitives comme la perception visuelle ou la mémoire.

Dans la série, la réintégration se produit lorsque Reighabi force les deux signaux correspondant aux deux « moi » de Mark à se resynchroniser. On pourrait ici faire un lien avec une question fondamentale en neurosciences cognitives : comment le cerveau combine-t-il les différentes informations qu’il reçoit (lumière, son, odeurs…) en une expérience consciente cohérente ?

Considérons une scène avec un ballon rouge et une chaise grise : chaque objet a plusieurs caractéristiques, comme sa couleur, sa forme ou le fait qu’il soit statique ou en mouvement. Chacun de ses aspects est traité par des parties différentes du cerveau. Comment ces informations dispersées sont-elles ensuite regroupées pour donner une perception unifiée de la scène ? Plus particulièrement, comment le cerveau sait-il qu’il faut associer la couleur rouge au ballon, et la couleur grise à la chaise ?

Le phénomène de synchronisation des oscillations a été proposé comme solution potentielle : deux populations de neurones, à deux endroits différents du cerveau, vont se synchroniser si elles traitent deux caractéristiques d’un même objet.

Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se syn
Lorsqu’on regarde cette image, on peut alterner entre la perception d’un unique visage (caché derrière le chandelier) ou de deux visages qui se font face. Deux populations de neurones traitant deux parties de l’image (matérialisés par deux cercles) se synchroniseront si les deux parties s’intègrent pour former un même objet. Adapté de Engel et coll., 2001, CC BY-ND

Cette théorie a été proposée suite à une étude de référence sur des chats, auxquels des électrodes ont été implantées dans le cerveau. Ces électrodes ont permis de mesurer la réponse de groupes de neurones dans le cortex visuel, lorsque des barres lumineuses étaient présentées devant les yeux des chats. On savait déjà qu’un neurone communiquait en envoyant des impulsions électriques à ses voisins. Les auteurs ont remarqué que les neurones déchargeaient ces impulsions de manière rythmique, suivant une oscillation, alternant entre périodes de repos et périodes d’activité. La découverte la plus remarquable, c’est l’observation que différents groupes de neurones, éloignés l’un de l’autre, se synchronisaient entre eux seulement s’ils étaient activés par la même barre lumineuse.

Plus généralement, les neuroscientifiques ont proposé l’idée que la synchronisation de deux groupes de neurones éloignés leur permettait d’aligner leurs périodes d’activité et donc de pouvoir échanger des informations. La synchronisation de l'activité cérébrale serait donc un mécanisme important du traitement de l’information dans le cerveau car elle permettrait aux différents groupes de neurones du cerveau de communiquer entre eux. Dans Severance, on retrouve cette idée : réintégrer les deux « moi » se fait en resynchronisant l’activité cérébrale de chacun des « moi », ce qui permet de rétablir une communication entre les deux pans de la personnalité de Mark.

Synchronisation des neurones : peut-on repérer une personnalité dans une zone du cerveau ?

Là où la fiction se permet quelques libertés artistiques par rapport à la science, c’est lorsqu’un objet aussi complexe qu’un « moi » défini par ses souvenirs, désirs, et émotions est capturé et réduit à une oscillation. En réalité, chaque aspect du fonctionnement du cerveau (perception, attention, mémoire…) est associé à différents types d’oscillations cérébrales. Par exemple, les oscillations theta (entre 4 et 8 Hz), alpha (entre 8 et 12 Hz) et gamma (> 35 Hz) sont impliquées dans les processus attentionnels. La mémoire mobilise aussi les oscillations theta et gamma. Le simple fait de regarder une image sollicite plusieurs mécanismes impactant différentes régions du cerveau et reste encore partiellement incompris à ce jour. Ainsi, aucune de ces capacités ne peut être expliquée par une seule oscillation. Il n’est donc pas possible de résumer une personnalité complète à un endroit précis du cerveau ni de stocker deux personnalités différentes n’ayant rien en commun dans deux parties bien délimitées du cerveau.

Faisons donc l’hypothèse que chaque tracé sur l’oscilloscope représente la moyenne de multiples électrodes mesurant l’activité globale du cerveau de Mark, plutôt que de provenir d’une unique électrode. C’est toute l’activité de son cerveau qui se déphase donc lorsqu’il passe de son « moi du boulot » à son « moi privé », le déphasage étant probablement activé par la puce insérée dans son cerveau. Dans le cas de Mark, on ne veut pas seulement intégrer l’information de deux régions différentes du cerveau, mais on veut réintégrer deux cerveaux complets déphasés dans le temps ! On comprend pourquoi la procédure est douloureuse et occasionne des effets secondaires…

TMS et stimulation cérébrale : une méthode réelle pour « réaligner » les pensées ?

Une dernière question se pose : peut-on resynchroniser deux ondes cérébrales ? Dans la série, Reighabi utilise un dispositif de stimulation magnétique transcrânienne (ou TMS), une technique utilisée à la fois pour la recherche et le traitement de troubles neurologiques ou psychiatriques. Le principe est d’envoyer un champ magnétique localisé qui stimule l’activité des neurones. Dans l’épisode 3 de la saison 2, on voit Mark bouger ses doigts suite à l’usage de la TMS. C’est exactement ce qui arrive lorsqu’on stimule avec la TMS le cortex moteur, une région du cerveau qui dirige l’exécution de mouvements. Il est aussi possible d’induire des oscillations avec la TMS, en envoyant des impulsions rythmiques de champ magnétique. On l’utilise donc dans la recherche pour moduler des oscillations dans le cerveau et observer si ces perturbations de l’activité cérébrale ont un impact sur la perception ou d’autres fonctions cognitives.

Quant à l’utiliser pour resynchroniser deux cerveaux déphasés en une personnalité unifiée, cela supposerait d’appliquer la TMS sur le cerveau entier (alors que l’intérêt de cette technique est de pouvoir cibler une zone donnée, par exemple le cortex moteur, ou le cortex visuel). Or une synchronisation trop forte de nombreuses populations de neurones voir du cerveau entier, conduit à… une crise d’épilepsie. Ce que vit d’ailleurs probablement Mark dans l’épisode 6, bien qu’elle ait aussi pu être déclenchée par un problème dans la tentative de Reighabi d’inonder la puce à l’intérieur de son cerveau pour la rendre inefficace.

La synchronisation des oscillations apparaît donc comme un processus délicat, un ballet subtil où chaque partie du cerveau doit s’accorder avec les autres pour permettre le fonctionnement normal d’un cerveau. Décrypter les mystères des oscillations cérébrales demeure un défi captivant pour la recherche, car elles n’ont pas encore livré tous leurs secrets. Leur potentiel intrigant en fait également une source d’inspiration riche pour la science-fiction, comme l’a montré avec brio la série Severance.

The Conversation

Laetitia Grabot est membre du comité des Jeunes Chercheurs de TRF (Timing Research Forum) une société académique ouverte visant à promouvoir la recherche sur la perception du temps. Elle a reçu des financements de la FRC (Fédération pour la Recherche sur le Cerveau).

19.03.2025 à 12:32

Pourquoi a-t-on la sensation de tomber avant de s’endormir ?

Astrid Thébault Guiochon, Ingénieure et Enseignante, Université Lumière Lyon 2

Pourquoi sursaute-t-on parfois juste avant de sombrer dans le sommeil&nbsp;? Que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort&nbsp;?
Texte intégral (1093 mots)

Après une journée fatigante, vous êtes enfin confortablement installé dans votre lit, prêt à tomber dans les bras de Morphée… quand soudain, votre corps sursaute, comme si vous tombiez dans le vide. Mais pourquoi notre cerveau nous joue-t-il ce tour juste avant de sombrer dans le sommeil ? Et d’ailleurs, que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?


Ce « sursaut du sommeil » porte le nom de « secousse hypnique » (du grec upnos, qui signifie sommeil) ou myoclonie (toujours des termes grecs myo pour muscle, et clonie pour agitation) d’endormissement, en référence à la contraction musculaire brève qui en est à l’origine.

Il s’agit d’une contraction musculaire brève et involontaire qui survient au moment de l’endormissement. Elle peut toucher l’ensemble du corps ou se limiter à un groupe musculaire, comme les bras ou les jambes. Bien souvent, elles sont assez intenses pour nous tirer du sommeil, mais il arrive qu’elles soient assez légères pour ne pas s’en rendre compte.

D’une certaine manière, ces secousses ressemblent au hoquet, qui est lui aussi une myoclonie sauf qu’ici, c’est une partie bien plus grande du corps qui est impliquée.

Environ 70 % de la population en a déjà fait l’expérience au moins une fois dans sa vie, et cette secousse touche autant les femmes que les hommes.

Un endormissement mal synchronisé

Plusieurs théories ont été formulées quant à son origine, mais les scientifiques ne se sont, à ce jour, pas accordés sur une cause certaine.

L’une des théories répandues propose une explication assez simple : lorsqu’on s’endort, on passe par différentes phases de sommeil, jusqu’à atteindre le sommeil paradoxal (qui permet notamment de consolider les souvenirs, et de faire les rêves dont on se souvient au réveil). Ce serait ce passage entre sommeil léger et profond qui engendrerait une relaxation des muscles (l’atonie musculaire), parfois trop soudaine pour le corps. Ce relâchement musculaire soudain pourrait surprendre le cerveau, qui, en réaction à cette perte de tonus, déclencherait une contraction réflexe des muscles.

Un certain nombre de scientifiques parlent également d’un déséquilibre dans l’endormissement du cerveau. Le passage d’un état d’éveil à un état de sommeil est géré au sein du tronc cérébral qui intervient dans un grand nombre de fonctions vitales. Parfois, la transition entre l’éveil et le sommeil est assez instable pour que ce système envoie accidentellement des signaux vers les muscles, qui vont alors se contracter.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un vestige évolutif

Une autre hypothèse repose sur une erreur d’interprétation du cerveau. Lorsqu’on s’endort, nos muscles se relâchent progressivement, notre respiration ralentit et notre rythme cardiaque diminue. Or, le cerveau pourrait interpréter cette détente musculaire soudaine comme une chute, déclenchant un réflexe primitif de sursaut pour éviter un danger potentiel. Cette théorie trouve ses racines dans notre passé évolutif : nos ancêtres dormaient parfois en hauteur (sur des branches, des rochers…) et un relâchement incontrôlé du corps pouvait être synonyme de chute dangereuse. Ce réflexe serait donc un vestige de ce mécanisme de protection.

Cette vigilance résiduelle du cerveau ne se limite d’ailleurs pas aux secousses hypniques : elle se retrouve aussi dans l’effet de première nuit.

Il n’est pas rare, lorsqu’on dort dans un nouvel endroit pour la première fois, de mal dormir, ou moins bien dormir que d’habitude, et l’évolution semble aussi en être la cause. Lors de cette première nuit, une partie de notre cerveau, et plus précisément l’hémisphère gauche, reste plus éveillée que l’autre. L’objectif ? Surveiller l’environnement pour détecter d’éventuelles menaces pour se réveiller rapidement en cas de danger.

Un mécanisme de protection que l’on retrouve aussi chez certaines espèces animales, comme les oiseaux et les dauphins, qui dorment avec un hémisphère (et même un œil) éveillé pour rester en alerte.

Quand notre mode de vie s’en mêle

L’évolution n’est bien sûr pas la seule fautive possible. Certains facteurs peuvent également favoriser ces sursauts nocturnes : le stress, la consommation excessive de caféine ou de nicotine, et même certains médicaments !

Si ces sursauts nocturnes peuvent être surprenants, voire agaçants, ils restent totalement bénins dans la grande majorité des cas. Ils rappellent simplement que la transition entre l’éveil et le sommeil est un mécanisme complexe, encore imprégné des traces de notre passé évolutif.

The Conversation

Astrid Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.03.2025 à 12:30

Les fibres de lin, de l’Égypte antique aux matériaux composites biobasés

Alain Bourmaud, Science des matériaux, Université Bretagne Sud (UBS)

Camille Goudenhooft, Enseignante-Chercheuse en mécanique des matériaux et des assemblages, ENSTA Bretagne

Loren Morgillo, Post-Doc spécialisé dans l'analyse des textiles en fibres naturelles, Université Bretagne Sud (UBS)

Des chercheurs étudient les propriétés de fibres antiques, issues de bandelettes de momie ou de voiles de bateau, pour mieux comprendre comment le lin peut si bien résister aux attaques du temps.
Texte intégral (3242 mots)
Le sarcophage de la momie de Cléopâtre de Thèbes, exposée au British Museum, est enveloppé de bandelettes en lin. © The Trustees of the British Museum, CC BY-NC-SA

Des chercheurs étudient les propriétés de fibres antiques issues de bandelettes de momie ou de voiles de bateau, pour mieux comprendre comment le lin peut si bien résister aux attaques du temps.


Les fibres de lin ont, depuis des millénaires, accompagné le développement de nos civilisations, en raison de leurs performances exceptionnelles, mais aussi de la finesse et du confort des textiles qu’elles permettent de confectionner.

Aujourd’hui, leur usage revient à la mode dans le textile, car le lin pousse en France métropolitaine et se développe dans le secteur des matériaux composites, pour ses propriétés mécaniques remarquables et parce qu’il permet de mettre au point des produits plus respectueux de l’environnement.

En étudiant des fibres de lin datant de plusieurs millénaires, nous cherchons à faire le lien entre passé et présent, afin de nous aider à concevoir des composites biobasés et durables. En effet, les matériaux archéologiques en lin, par exemple les bandelettes de momies égyptiennes, sont des témoins extraordinaires qui peuvent nous apprendre de nombreuses choses sur la durabilité de ces fibres — notamment comment peuvent évoluer leurs propriétés mécaniques ou biochimiques au cours du temps.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le lin, compagnon des humains depuis l’Égypte ancienne

Le lin, domestiqué par les humains depuis près de 10 000 ans, accompagne depuis toujours le développement des civilisations les plus avancées

C’est l’Égypte antique qui en a développé à la fois les pratiques culturales, mais aussi l’extraction de ses fibres et leur transformation, posant ainsi les bases de l’industrie textile que nous connaissons aujourd’hui. Les fibres de lin permettaient à l’époque la réalisation de fils et de textiles d’une grande finesse, très prisés et utilisés à la fois pour la réalisation de vêtements luxueux, mais aussi pour confectionner les plus prestigieux parements funéraires.

Dès cette époque est apparue la notion de recyclage, les textiles en lin étant la plupart du temps réutilisés, sous forme de bandelettes de momies ou encore en voiles de bateaux.

tunique de lin abimee
Une tunique de lin de l’époque byzantine (VIᵉ-VIIIᵉ siècles), en provenance d’Égypte, exposée au British Museum de Londres. The Trustees of the British Museum, CC BY-NC-SA

De plus, dans l’Égypte ancienne mais aussi plus tardivement, dans l’Europe du Moyen Âge ou de la Renaissance, les textiles en lin, compte tenu de leur valeur, étaient couramment utilisés comme monnaie d’échange et de négociation.

Enfin, les fibres de lin ont depuis l’Antiquité guidé les développements de la marine et en sont un des fils rouges. Utilisées par les Grecs ou Égyptiens anciens pour le calfatage des coques et la réalisation des voiles, leur culture soutenue en Bretagne aux XVIIe et XVIIIe siècles a fortement contribué au développement de la marine à voile en France par la réalisation de voiles, cordages ou encore vêtements de matelots.

Fortement concurrencées pour l’habillement, le linge de maison ou les usages techniques par le coton à partir du XVIIIe siècle, puis par les fibres synthétiques depuis le XXe siècle, le lin connaît aujourd’hui un renouveau, que ce soit encore une fois dans le nautisme pour la réalisation de coques ou ponts de bateaux ainsi que de voiles biobasées, mais aussi dans le secteur industriel des transports, par exemple, pour réaliser des pièces d’habillage intérieur et d’isolation pour les voitures.

Le lin, d’hier à aujourd’hui. Source : Synchrotron Soleil CNRS-CEA-Paris Saclay.

Des fibres aux performances exceptionnelles, issues d’une plante essentiellement cultivée en France aujourd’hui

En 2023, l’Égypte représente environ 1 % de la production mondiale de lin, la positionnant parmi les huit principaux pays producteurs à l’échelle mondiale.

Aujourd’hui, le premier producteur mondial de lin textile est la France, dont les surfaces cultivées s’élèvent à 186 000 hectares en 2024 — pour une production d’environ 200 000 tonnes de fibres. En effet, le climat de la côte nord-ouest de la France, caractérisé par une parfaite alternance de jours ensoleillés, une forte humidité et des températures douces, offre aujourd’hui des conditions idéales pour la culture du lin. Cette production reste très minoritaire par rapport aux fibres de coton (26 millions de tonnes dans le monde), mais significative par rapport aux fibres longues de chanvre qui ne concernent que quelques milliers d’hectares en France.

Les fibres de lin possèdent une structure et des propriétés mécaniques hors norme qui sont liées à leur fonction dans la plante et à la structure de cette dernière.

La plante de lin est en effet dotée d’une élongation exceptionnelle : sa croissance est rapide, atteignant une hauteur d’environ un mètre pour un diamètre de tige de quelques millimètres seulement.

champ de lin en fleur
Champs de lin à Saint-Étienne-l’Allier, dans l’Eure. jean-michel gobet, wikipedia, CC BY-SA

Pour tenir debout, elle a développé des fibres d’un diamètre d’environ 15 microns et ayant une longueur de quelques centimètres (celles de bois ne font que quelques millimètres) et regroupées en faisceaux très cohésifs de quelques dizaines d’unités. Ces faisceaux de fibres, répartis en périphérie de la tige, en assurent la stabilité, même en cas de vent ou de pluies soutenues. La nature a ainsi mis au point un modèle mécanique très performant qui peut être une source de bio-inspiration pour la conception des matériaux.

Depuis le début du XXe siècle, les variétés de lin actuelles ont fait l’objet de longues années de sélection variétale afin de produire les plantes les plus riches en fibres et les plus résistantes aux maladies. Les agriculteurs français ont ainsi développé des savoir-faire cruciaux, permettant la récolte de fibres aux qualités optimales — en particulier l’accumulation de chaleur nécessaire à la croissance de la plante, en fonction de la température journalière ; et le rouissage au champ, qui consiste à laisser les tiges de lin reposer dans le champ pendant 3 à 6 semaines, pendant lesquelles des micro-organismes décomposent les tissus entourant les fibres, les préparant ainsi aux étapes de transformation subséquentes.

Cependant, cette culture est confrontée aujourd’hui à de nombreux aléas climatiques. Pour les contrecarrer, la profession travaille à la mise au point de nouvelles variétés plus résistantes à la sécheresse, à la sélection de zones de culture moins arides, et aussi au développement de cultures hivernales.


À lire aussi : Faire pousser des isolants thermiques: un panorama des matériaux disponibles en France


Si les fibres de lin sont de plus en plus utilisées, dans les textiles ou même les matériaux techniques en raison de leurs performances mécaniques, des verrous scientifiques subsistent pour accélérer le développement de leur usage dans le secteur des matériaux ; par exemple, mieux comprendre leur comportement mécanique et structural sur le long terme, notamment en milieu extérieur, est un point clef.

L’étude de leurs défauts structuraux, qui sont des sites de faiblesses mécaniques mais aussi des portes d’entrée pour l’eau et les micro-organismes tels que les bactéries, micro-organismes et champignons, est aujourd’hui un enjeu scientifique important.

Anubis : un projet pour mieux comprendre et maîtriser la durabilité de ces fibres

Le projet Anubis se veut être un pont entre archéologie, archéométrie (l’analyse quantitative de vestiges archéologiques) et science des matériaux.

Notre approche est d’étudier des objets archéologiques très anciens, parfois âgés de plusieurs millénaires, pour comprendre l’évolution de leurs propriétés et de leur structure au fil du temps. Nos travaux portent principalement sur des fibres de lin égyptiennes issues de textiles mortuaires, de filets de pêche ou encore de vêtements de figurine, sélectionnés par les archéomètres de l’Institut français d’archéologie orientale du Caire.

Nous travaillons ainsi sur des petits fragments de textiles anciens (de quelques millimètres), prélevés en bordure des œuvres, en utilisant des techniques de caractérisation le moins destructives possible. Elles nous apportent des enseignements sur leurs propriétés, qui peuvent aussi renseigner les archéologues sur de possibles usages anciens. Le nombre de défauts peut, par exemple, être un indicateur de l’usure de la pièce textile.

representation 3D d’une fibre de lin vue par tomographie
Représentation 3D d’une fibre de lin et de ses porosités internes. Ces fibres archéologiques présentent des signes de vieillissement marqués (porosités et fissures). Morgillo et collaborateurs, 2025, Fourni par l'auteur

Pour déterminer les performances mécaniques de ces fibres de lin anciennes, leur constitution biochimique ou bien leur structure, nous utilisons des techniques de pointe. C’est, par exemple, la microtomographie sous rayonnement synchrotron, qui utilise les rayons X pour obtenir des images en coupe d’une extrême précision d’un objet ou d’un matériau, comme les fibres dans notre cas. Elle permet non seulement d’obtenir une vue en 3D de la structure externe, mais aussi d’analyser en détail la structure interne.

Ces expériences nous permettent par exemple de visualiser les porosités au sein de leurs défauts structuraux. Il est aussi possible de réaliser des cartographies de propriétés mécaniques dans des sections de fibres de lin.

L’ensemble de ces travaux de recherche nous a permis de proposer différents scénarios de dégradation des fibres de lin au fil du temps, selon leurs conditions de dégradation, et de mieux cerner leurs points faibles. Nous avons ainsi observé que les défauts des fibres anciennes, tels que les fissures et les porosités, affectent directement leurs performances. Cependant, certaines fibres sans défaut et protégées de l’humidité peuvent conserver leur intégrité. Par exemple, des fibres provenant d’un tissu trouvé sous terre dans des conditions extrêmement sèches, d’un filet de pêche protégé par de la résine, ou d’un tissu conservé dans une tombe où les conditions atmosphériques sont très stables, présentent un état de conservation similaire à celui des fibres contemporaines.

Nous poursuivons ces travaux aujourd’hui avec d’autres techniques d’analyse : génétique pour tenter d’identifier les espèces de lin cultivées auparavant ou des études mécaniques plus approfondies ; mais aussi en étudiant d’autres fibres, en particulier du coton viking ou péruvien.


Le projet Anubis est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alain Bourmaud a reçu des financements de l'ANR via le projet ANUBIS (ANR-21-CE43-0010)

Camille Goudenhooft a reçu des financements de l'ANR-21-CE43-0010 – ANUBIS

Loren MORGILLO a reçu des financements de l'ANR (Projet FLOEME - ANR-21-CE10-0008).

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   FIABILITÉ FAIBLE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓