26.10.2025 à 09:00
Mathilde Laurent-Brocq, Docteure - chercheuse en science des matériaux, Université Paris-Est Créteil Val de Marne (UPEC); Centre national de la recherche scientifique (CNRS)
Développer des matériaux nouveaux semble toujours nécessaire pour répondre à des besoins urgents en médecine ou dans le registre de la transition écologique. Pourtant, l’extraction des matières premières nécessaires à leur fabrication et leur mauvaise capacité de recyclage engendrent des impacts environnementaux très lourds. Comment résoudre ce dilemme ?
« L’un des pires scandales sanitaires depuis des décennies », « une famille de 10 000 polluants éternels », « la France empoisonnée à perpétuité », « la pollution sans fin des PFAS » : voilà ce que titrait la presse à propos des PFAS, acronyme anglais de per- and polyfluoroalkyl substances. Il est loin le temps où ces nouveaux composés chimiques étaient admirés et développés pour leurs nombreuses propriétés : antiadhésifs, ignifuges, antitaches, imperméabilisants… Aujourd’hui, c’est plutôt leur toxicité qui inquiète. Cela nous rappelle évidemment l’histoire de l’amiante, un très bon isolant, mais qui s’est révélé hautement toxique. Face à ces scandales à répétition, la question se pose : et si on arrêtait d’inventer de nouveaux matériaux ?
Mais tout d’abord, qu’est-ce qu’un matériau ? C’est une matière que nous utilisons pour fabriquer des objets. Scientifiquement, un matériau est caractérisé par une composition chimique (la concentration en atomes de fer, de silicium, de carbone, d’azote, de fluor…) et une microstructure (l’organisation de ces atomes à toutes les échelles). Ces deux caractéristiques déterminent les propriétés du matériau – mécaniques, électriques, magnétiques, esthétiques… – qui guideront le choix de l’utiliser dans un objet en particulier. Après avoir exploité les matériaux d’origine naturelle, nous avons conçu et produit de très nombreux matériaux artificiels, de plus en plus performants et sophistiqués. Bien sûr, personne ne souhaite revenir à l’âge de fer, mais a-t-on encore besoin de continuer cette course folle ?
D’autant que l’impact sur la santé n’est pas le seul inconvénient des nouveaux matériaux. Ces derniers requièrent souvent des matières premières ayant un impact environnemental majeur. Prenons l’exemple des fameuses terres rares, tels que l’erbium ou le dysprosium, omniprésents dans les aimants des éoliennes ou dans les écrans des appareils électroniques. Leur concentration dans les gisements varie de 1 % à 10 %, à comparer aux plus de 60 % des mines brésiliennes de fer.
On extrait donc énormément de roches pour obtenir une maigre quantité de terres rares. Il reste encore à traiter le minerai, à en séparer les terres rares, ce qui est coûteux en énergie, en eau et en produits chimiques. Donnons aussi l’exemple du titane, étoile montante de l’aéronautique et du secteur biomédical. La transformation de son minerai émet environ 30 tonnes de CO₂ par tonne de titane produite, soit 15 fois plus que pour le minerai de fer.
Autre inconvénient des nouveaux matériaux : leur recyclage est peu performant, voire inexistant, du fait de leurs compositions chimiques complexes. Par exemple, la quatrième génération de superalliages, utilisés dans les moteurs d’avion, contient au moins 10 éléments chimiques différents. Un smartphone en contient facilement une trentaine. Il existe une très grande variété de ces nouveaux matériaux. On dénombre 600 alliages d’aluminium classés dans 17 familles et une centaine de plastiques durs largement utilisés dans l’industrie, bien plus en comptant les nombreux additifs qui y sont incorporés.
Alors, imaginez nos petits atomes de dysprosium perdus à l’échelle atomique dans un aimant, lui-même imbriqué à d’autres matériaux du moteur de l’éolienne, le tout enseveli sous une montagne de déchets en tous genres. Il existe des techniques capables de trier puis de séparer ces éléments, mais elles font encore l’objet de nombreuses recherches. En attendant, plus d’une trentaine d’éléments chimiques ont un taux de recyclage inférieur à 1 %, autant dire nul.
Mais, au moins, est-ce que cela vaut la peine de produire et de (trop peu) recycler à grands frais environnementaux ces matériaux ? Laissons de côté les applications gadget et inutiles, tels que les écrans pliables, pour nous concentrer sur la transition énergétique.
Le déploiement des véhicules électriques et des énergies renouvelables semble indissociable du développement des matériaux qui les constitueront. Pour l’énergie nucléaire produite dans les réacteurs de quatrième génération ou par l’ambitieux projet de fusion nucléaire, les matériaux sont même le principal verrou technologique.
Ces nouveaux matériaux tiendront-ils leurs promesses ? Engendreront-ils un bénéfice global pour la société et pour l’environnement ? Le passé nous montre que c’est loin d’être évident.
Prenons l’exemple de l’allègement des matériaux de structure, mené pendant des dizaines d’années, avec l’objectif final (et louable) de réduire la consommation en carburant des véhicules. Ce fut un grand succès scientifique. Néanmoins le poids des voitures n’a cessé d’augmenter, les nouvelles fonctionnalités annulant les gains de l’allègement. C’est ce que l’on appelle l’« effet rebond », phénomène qui se manifeste malheureusement très souvent dès qu’une avancée permet des économies d’énergie et/ou de matériau.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
J’ai participé à l’organisation d’une session du Tribunal pour les générations futures (TGF), une conférence-spectacle qui reprend la mise en scène d’un procès pour discuter de grands enjeux de société. La question était « Faut-il encore inventer des matériaux ? » Plusieurs témoins ont été appelés à la barre : des chercheurs en science des matériaux, mais aussi un responsable d’un centre de recherche et développement (R&D) et une autrice de science-fiction. Après les avoir écoutés, les jurés ont répondu « Oui » à une large majorité.
Personnellement, malgré toute la conscience des effets délétères que je vous ai présentés, je pense également que cela reste nécessaire, car nous ne pouvons pas priver les générations futures des découvertes à venir. Actuellement, des laboratoires travaillent sur des matériaux qui permettraient de purifier l’air intérieur ou d’administrer des médicaments de manière ciblée.
Évidemment que nous souhaitons donner leur chance à ces nouveaux matériaux ! Sans parler des découvertes dont nous n’avons aucune idée aujourd’hui et qui ouvriront de nouvelles perspectives. De plus, nous ne souhaitons pas entraver notre soif de connaissances. Étudier un nouveau matériau, c’est comme explorer des galeries souterraines et chercher à comprendre comment elles se sont formées.
Alors oui, continuons à inventer des matériaux, mais faisons-le autrement. Commençons par questionner les objectifs de nos recherches : pour remplir quels objectifs ? Qui tire profit de ces recherches ? Quelle science pour quelle société ?
Ces questions, pourtant anciennes, sont peu familières des chercheurs en sciences des matériaux. La science participative, par exemple grâce à des consultations citoyennes ou en impliquant des citoyens dans la collecte de données, permet de créer des interactions avec la société.
Cette démarche se développe en sciences naturelles où des citoyens peuvent compter la présence d’une espèce sur un territoire. Des collectifs citoyens espèrent même intervenir dans les discussions concernant les budgets et les objectifs des programmes de recherche. En science des matériaux, de telles démarches n’ont pas encore émergé, probablement limitées par le recours fréquent à des équipements expérimentaux complexes et coûteux ou à des simulations numériques non moins complexes.
Ensuite, éliminons dès le départ les applications néfastes et intégrons les enjeux environnementaux dès le début d’un projet de développement d’un matériau. Appliquons la démarche d’écoconception, qui a été définie pour les produits et les services. Évaluons les émissions de gaz à effet de serre, mais aussi la consommation de ressources, la pollution ou encore la perte de biodiversité qui seront induites par la production, l’utilisation et la fin de vie d’un matériau. Pour un nouveau matériau, la plupart de ces informations n’existeront pas et devront donc être mesurées en laboratoire puis extrapolées. C’est un défi en soi et, pour le relever, une unité d’appui et de recherche (UAR) baptisée Unité transdisciplinaire d’orientation et de prospective des impacts environnementaux de la recherche en ingénierie (Utopii), regroupant le CNRS ainsi que plusieurs universités et écoles d’ingénieur, vient d’être créée.
Et dans les nombreux cas de matériaux à l’impact environnemental néfaste, mais aux performances très prometteuses, que faire ? Les superalliages, dont la liste des composants est longue comme le bras, n’ont pas été développés par un irréductible ennemi du recyclage, mais parce que leur tenue à haute température est bien plus intéressante que leurs prédécesseurs. C’est le choix cornélien actuel de nombreux matériaux : performance, parfois au profit de la transition énergétique, ou respect de l’environnement.
Pour sortir de cette impasse, un changement de point de vue s’impose. Et si, comme le propose le chercheur en biologie Olivier Hamant, on s’inspirait du vivant pour basculer de la performance vers la robustesse ?
La performance, c’est atteindre à court terme un objectif très précis : une bonne stratégie dans un monde stable aux ressources abondantes. La robustesse au contraire, c’est la capacité de s’adapter aux fluctuations, grâce à de la polyvalence, de la redondance, de la diversité.
Dans notre monde aux aléas croissants, la robustesse est très probablement préférable. Alors, comment l’appliquer aux nouveaux matériaux ? En créant des matériaux réparables, au moins en partie, qui supportent les contaminations du recyclage, ou bien qui s’adaptent à plusieurs applications ? Il semble que tout reste à inventer.
Mathilde Laurent-Brocq a reçu des financements du CNRS et de l'Université Paris Est Créteil.
23.10.2025 à 16:17
Armand Namekong Fokeng, Doctorant en biologie cellulaire et épidémiologie, Université de Corse Pascal-Paoli
Bien que les virus n’aient ni cerveau ni langage, leur circulation entre tiques, animaux et humains dans un environnement donné pourrait se lire comme un flux d’informations qui modifierait à jamais des comportements et qui façonnerait notre évolution.
La plupart des animaux ont un mode de communication évident : les cris d’alarme des suricates alertent au danger, les danses des abeilles signalent le nectar, les infrasons des éléphants permettent le maintien de la cohésion des groupes. Ainsi, c’est un nouveau message codé qui circule chaque fois et qui est ensuite interprété pour induire une action collective. Imaginez alors un instant, des virus qui parlent… pas un langage sonore ni gestuel, mais une conversation génétique, gravée dans des molécules (ADN, ARN) qui traversent les espèces en modifiant les corps.
Pour faire simple, un virus n’est qu’un morceau d’information génétique. Dénué de toute autonomie propre, il n’a de vie qu’à travers les cellules hôtes qu’il infecte. Le code génétique du virus est lu et exécuté comme un programme. En conséquence, la cellule cesse ses activités nobles (respiration, reproduction, réparation, etc.) et devient une usine à virus.
Cependant, le message viral n’est presque jamais stable. En effet, la fidélité est limitée dans la réplication des virus à ARN, tels que celui de la fièvre hémorragique de Crimée-Congo (CCHFV) sur lequel porte mon projet de thèse.
Chaque nouvelle infection draine avec elle une nuée de variants génétiques, appelés « quasi-espèces ». L’information virale est donc en perpétuelle réécriture pour s’adapter aux environnements et aux hôtes. Parfois, elle s’inscrit dans la mémoire profonde des organismes ayant été en contact avec le virus.
On sait, actuellement, qu’environ 8 % du génome humain provient de séquences virales anciennes parmi lesquelles certaines ont été intégrées à nos fonctions vitales. À titre d’exemple, la protéine syncytine, issue d’un rétrovirus, est indispensable à la formation du placenta chez les mammifères.
Les virus sont-ils toujours des intrus nuisibles ? Eh bien non ! Ils peuvent se présenter comme des créateurs invisibles de notre histoire génétique.
Un virus est sans voix et ne choisit pas ses mots. Cependant, son interaction avec la cellule rappelle un échange de signaux.
En effet, dans le processus de l’infection, il doit reconnaître un récepteur spécifique sur la membrane de la cellule hôte : c’est la clé moléculaire qui lui ouvre la porte. Un exemple assez connu est celui du virus de l’immunodéficience humaine (VIH) qui cible les lymphocytes T, en exploitant la très célèbre molécule CD4 à laquelle il se lie, et utilise les corécepteurs CCR5 ou CXCR4 pour infecter la cellule.
En réponse, l’organisme infecté met en place une véritable conversation immunitaire entretenue par de nombreux messagers chimiques : cytokines, interférons, fièvre, etc. Ces derniers modifient le comportement des cellules et, parfois, de l’individu lui-même.
À l’échelle sociale, l’infection induit des réactions telles que l’isolement, les soins, les nouvelles pratiques de prévention, etc. Ainsi, sans aucune intention, le virus modifie pourtant les relations collectives.
Le virus de la fièvre hémorragique de Crimée-Congo est une parfaite illustration de cette logique. En effet, il circule dans un réseau où chaque espèce joue un rôle.
En ce sens, les tiques du genre Hyalomma sont à la fois vecteurs et réservoirs. Leur salive est riche en molécules immunomodulatrices, un cocktail de protéines ou de peptides (lipocalines, serpines, évasines, etc.) qui, en neutralisant les défenses immunitaires locales de l’hôte, préparent discrètement la transmission du virus.
Une fois infectés par les tiques, les mammifères domestiques (bovins, ovins, caprins), en tant qu’amplificateurs silencieux, hébergent le virus sans symptômes.
Chez l’humain, le scénario est différent. Ici, l’infection peut entraîner des fièvres hémorragiques potentiellement mortelles (de 10 % à 30 %) en cas d’apparition de symptômes. On estime de 10 000 à 15 000 cas environ, le nombre annuel de nouvelles infections à CCHFV. Ces dernières conduisent à environ 500 décès, soit une létalité moyenne globale d’environ 3-5 %.
En ce qui concerne la France, aucun cas humain symptomatique n’a été rapporté à ce jour. Cependant, des preuves d’une circulation virale dans le sang des animaux hôtes et dans les tiques vectrices prélevées dans ce pays ont été documentées. Bien qu’ayant un risque humain relativement faible pour le moment, la France est située au carrefour de plusieurs zones endémiques (la Turquie, les Balkans, l’Asie, l’Afrique).
À travers son cycle de transmission viral, le CCHV se présente comme un fil invisible qui relie tiques, animaux et humains. C’est un véritable message moléculaire qui circule, traverse les corps et remodèle les dynamiques écologiques et sociales.
Il importe également de souligner qu’une fois dans la cellule, un virus a un destin riche en opportunités. Il peut ainsi être neutralisé par les défenses immunitaires ou se répliquer jusqu’à consumer entièrement son hôte.
Certains virus ont une présence latente et choisissent de rester silencieux ou endormis dans le génome ou le noyau. Cependant, dès que les conditions sont favorables (stress ou immunodépression), ils se réactivent et causent des dommages.
D’autres s’intègrent durablement dans le génome, modifiant ainsi la biologie de la cellule. Ainsi, ils peuvent dans certains cas activer des oncogènes et conduire à certains cancers, tels que celui du col de l’utérus pour le papillomavirus, ou simplement déclencher des dérèglements immunitaires qui débouchent sur l’expression de certaines maladies auto-immunes. Mais, dans certains cas, les virus passent inaperçus et disparaissent en silence.
Quand il faut barrer la voie aux virus, on s’attaque à leurs signaux moléculaires. Les antiviraux sont des brouilleurs de signal dans ce dialogue moléculaire.
Ainsi, certains empêchent l’entrée du virus, d’autres inhibent la copie de son génome : c’est le cas du favipiravir, par exemple, qui inhibe la polymérase des virus à ARN. Ce médicament est traditionnellement utilisé contre les pandémies grippales.
D’autres traitements agissent comme amplificateurs. C’est le cas des interférons, qui administrés comme médicament, renforcent l’expression des cellules et leur permettent d’alerter leurs voisines.
Ce jeu demeure toutefois dynamique. Face aux pressions thérapeutiques toujours plus nombreuses, les virus mutent en de nouveaux variants, enrichissant ainsi leur « vocabulaire moléculaire ». Le VIH en constitue un bel exemple ; en effet, il a rapidement développé des résistances aux premiers traitements en mutant. Ainsi, la médecine et la pharmacopée deviennent elles-mêmes des acteurs involontaires de cette conversation évolutive.
Et si l’on élargissait notre vision de la vie, en classant les virus parmi les acteurs de la communication ? Ainsi, la communication ne se limiterait plus seulement aux cris des animaux et aux paroles ou gestes d’humains. Elle pourrait également être inscrite dans la circulation d’informations génétiques entre les espèces.
De ce fait, les virus cesseraient d’être uniquement des ennemis pour devenir aussi, et surtout, des agents de mise en réseau, qui relient les tiques, les animaux et les humains. Ce faisant, ils laisseraient des traces dans nos génomes et modifieraient nos comportements sociaux en cas d’épidémie.
Vue sous cet angle, chaque infection virale deviendrait une conversation biologique, un échange franc où virus, cellules et écosystèmes négocieraient chacun leur position. De la simple chorégraphie d’une abeille au passage d’un virus dans un troupeau, le vivant deviendrait une immense polyphonie de messages.
Loin d’être un simple agent pathogène, le virus apparaît comme une voix invisible de la grande conversation du vivant.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Armand Namekong Fokeng ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.10.2025 à 15:05
Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Une solution pourrait-elle être de créer des ovules à partir d’autres cellules ? Il faudra d’abord répondre à de nombreuses questions techniques et éthiques.
Créer des ovules humains à partir de simples cellules de peau est le défi scientifique qui vient d’être relevé pour la première fois chez l’humain. Ce type de méthode avait déjà été testée avec succès chez des animaux comme les souris. Les chercheurs de l’Oregon Health and Science University ont publié ces résultats dans la revue Nature Communications.
Les cellules de peau sont couramment utilisées dans ces approches, car leur prélèvement est simple, peu invasif et sûr pour les donneurs, tout en permettant une culture aisée en laboratoire. Malgré le succès expérimental, très peu des ovocytes fécondés ont atteint le stade d’embryons précoces (quelques jours de croissance) et avec des défauts génétiques importants, empêchant tout développement.
Cette preuve de faisabilité ouvre des perspectives prometteuses pour des couples stériles mais soulève de nombreuses questions éthiques : encadrement législatif, définition du consentement, protection de l’embryon et gouvernance de ces technologies.
La reproduction sexuée repose sur la rencontre et la fusion de gamètes. Un gamète est une cellule sexuelle : chez la femme, il s’agit de l’ovocyte produit dans les ovaires ; chez l’homme, du spermatozoïde, produit dans les testicules. Les gamètes contiennent la moitié du patrimoine génétique de l’individu – on dit qu’ils sont « haploïdes » –, et leur fusion lors de la fécondation forme la première cellule de l’embryon, qui est diploïde et qui contient la totalité des 46 chromosomes organisés par paire.
L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Cette situation concerne notamment les femmes atteintes d’insuffisance ovarienne prématurée, celles dont les ovaires ont été endommagés ou retirés par chirurgie, celles présentant des troubles hormonaux graves qui perturbent la maturation des ovocytes ainsi que des patientes ayant subi une chimiothérapie ou une radiothérapie, pouvant entraîner une stérilité irréversible. Parmi les cas les plus courants figurent aussi le syndrome des ovaires polykystiques (SOPK). D’autres maladies génétiques, comme le syndrome de Turner, empêchent également la production d’ovocytes.
Pour ces femmes privées de gamètes, les solutions actuelles restent limitées : la fécondation in vitro classique n’est envisageable qu’avec un don d’ovocytes, ce qui exclut tout lien génétique direct avec l’enfant. Les nouvelles technologies de procréation assistée fondées sur la création d’ovocytes à partir de cellules non sexuelles offrent, à terme, l’espoir inédit de restaurer la fertilité avec un patrimoine génétique propre à la patiente.
La première étape de la génération d’ovocytes humains débute par le prélèvement de cellules de peau chez un donneur. Ces cellules, qui ne font pas partie de la lignée germinale, contiennent tout le patrimoine génétique de la personne. Outre leur prélèvement simple, peu invasif, ces cellules de peau sont ensuite sélectionnées alors qu’elles sont en « pause », c’est-à-dire avant qu’elles commencent à se diviser. Cette condition expérimentale est importante, qui évite une duplication des chromosomes de et facilite le contrôle du contenu d’ADN. Après isolement, le noyau d’une cellule cutanée est extrait afin de servir de donneur de matériel génétique. Ce noyau est ensuite transféré (injecté) dans un ovocyte de donneuse, dont le propre noyau a été retiré en laboratoire – il s’agit de la technique du transfert nucléaire.
L’ovocyte ainsi modifié porte alors la totalité des chromosomes (46) de la cellule de peau, mais il n’est pas encore apte à la fécondation : il doit posséder seulement 23 chromosomes pour être considéré comme « haploïde » et fonctionner comme un gamète. Afin de réaliser cette étape, les chercheurs utilisent une technique très récente appelée « mitoméiose ». La cellule est artificiellement « conduite » à éliminer la moitié de ses chromosomes, en simulant une division équivalente à la méiose, processus naturel de production des gamètes. Cette approche permettrait d’obtenir une cellule haploïde, présentant les caractéristiques essentielles d’un ovocyte prêt à être fécondé par un spermatozoïde.
Les résultats de cette étude soulignent que cette étape est encore source de nombreuses anomalies chromosomiques : défaut de ségrégation, chromosomes en trop (trisomies) ou en moins (monosomies). La grande majorité des ovocytes artificiels ainsi obtenus ne sont pas viables.
Dans cette étude, 82 ovocytes artificiels ont été produits par transfert nucléaire et mitoméiose, puis fécondés par l’injection de spermatozoïde à l’intérieur de l’ovocyte. La grande majorité des embryons n’a pas progressé au-delà du stade de 4 à 8 cellules. Parmi ces ovocytes fécondés, seulement environ 9 % ont atteint le stade du sixième jour du développement embryonnaire, mais dont la viabilité et la compatibilité avec une future implantation restent à démontrer. Tous présentaient cependant des anomalies majeures dont des défauts de ségrégation chromosomique ayant entraîné des aneuploïdies, c’est-à-dire des déséquilibres dans le nombre de chromosomes.
Ces anomalies sont aggravées par l’absence de recombinaison génétique normalement assurée lors d’une méiose naturelle, ce qui compromet le développement embryonnaire. En effet, lors de la reproduction humaine, la recombinaison génétique pendant la méiose permet des échanges de fragments d’ADN des chromosomes paternels et maternels, offrant à chaque enfant un patrimoine génétique unique, ce qui favorise la diversité et la santé des individus. Malgré un taux limité de fécondation et quelques embryons atteignant un stade avancé, les anomalies génétiques constatées empêchent donc à ce jour la production d’embryons viables à partir d’ovocytes synthétiques humains.
L’utilisation expérimentale de ces ovocytes artificiels issus de cellules somatiques soulève des interrogations qu’il est nécessaire d’anticiper avant toute application clinique et qui doivent faire l’objet d’évaluations complémentaires. À ce jour, aucun pays n’autorise l’application clinique des gamètes artificiels.
En matière de consentement, il est nécessaire de définir qui contrôle l’usage des cellules somatiques utilisées pour produire des gamètes et quels sont les droits des enfants issus de ces techniques, notamment concernant leur accès à l’information sur leurs origines génétiques.
La sécurité et la santé des enfants représentent un autre enjeu fondamental. Les risques épigénétiques et génomiques liés à ces gamètes de synthèse sont encore mal connus. Il existe notamment une possibilité d’altérations de l’empreinte génétique : un mécanisme où certains gènes ne s’expriment que s’ils viennent du père ou de la mère. Ce dernier est crucial pour le développement normal, car un défaut de cette empreinte peut provoquer des maladies génétiques.
Les gamètes artificiels humains, comme les embryons humains de synthèse, posent des problèmes inédits, même si les régimes légaux de ces derniers sont différents. Le recours à ces nouvelles méthodes pourrait conduire à une multiplication d’embryons créés pour la recherche ou la validation technique.
En France, la loi de bioéthique interdit la création d’embryons à des fins de recherche : la recherche ne peut porter que sur des embryons conçus in vitro dans le cadre d’une assistance médicale à la procréation, qui ne font plus l’objet d’un projet parental, et dans le respect d’un cadre réglementaire strict (autorisation, pertinence scientifique, finalité médicale ou amélioration des connaissances, interdiction de culture au-delà de quatorze jours).
Ces méthodes ouvrent des perspectives pour offrir des possibilités thérapeutiques à la perte fonctionnelle des ovaires, mais aussi des opportunités de comprendre les toutes premières étapes du développement humain et d’explorer la réparation ou la création de tissus humains pour d’autres usages médicaux, au-delà de la reproduction. Chaque innovation scientifique relative au domaine de l’embryon humain ou de la reproduction doit conduire à de nouvelles exigences sur un encadrement juridique strict, une réflexion collective et une gouvernance transparente pour garantir le respect des droits des personnes et des principes fondamentaux des droits humains.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.10.2025 à 15:59
Jean-Lou Justine, Professeur, UMR ISYEB (Institut de Systématique, Évolution, Biodiversité), Muséum national d’histoire naturelle (MNHN)
Archie K. Murchie, Agricultural entomologist, Agri Food and Biosciences Institute
Leigh Winsor, Adjunct Senior Research Fellow, James Cook University
Romain Gastineau, Professeur assistant (Institut des sciences de la mer et de l'environnement), University of Szczecin
Les vers plats terrestres (ou, plathelminthes) causent d’importants dégâts écologiques en France, car ces espèces n’ont pas de prédateurs dans l’Hexagone. La découverte très récente de parasites va-t-elle permettre de lutter contre ces espèces ?
Depuis une dizaine d’années, nous étudions l’invasion de la France et de l’Europe par des vers plats terrestres (ou, plathelminthes). Ces animaux exotiques, généralement longs comme le doigt, sont arrivés en Europe par l’intermédiaire du transport des plantes en pots. Une dizaine d’espèces sont maintenant chez nous, venant principalement de l’hémisphère Sud (Argentine, Australie, Nouvelle-Guinée, Asie du Sud-Est). Elles se sont largement installées dans les jardins, en particulier Obama nungara, désormais présent dans plus de 70 départements. D’autres sont aussi connues du public, comme Bipalium kewense, qui peut atteindre une trentaine de centimètres, ou Vermiviatum covidum.
Quand une espèce envahit un écosystème, elle provoque souvent toute une série de problèmes écologiques. Les plathelminthes terrestres sont des prédateurs, et on sait qu’ils consomment (en particulier dans le cas d’Obama nungara) les vers de terre, ces précieux alliés du jardinier pour la fertilité des sols.
À lire aussi : L’invasion des vers plats est loin d’être terminée
Et là, se pose la question, comment lutter contre ces envahisseurs ? Aucun produit chimique n’étant homologué ni même testé, oublions immédiatement cette solution. Des prédateurs qui mangeraient ces vers ? On n’en connaît pas en Europe. Des parasites qui pourraient limiter leur prolifération ? Inconnus aussi.
Les scientifiques qui étudient les invasions considèrent généralement qu’une espèce envahissante abandonne derrière elle prédateurs et parasites en arrivant dans un nouveau territoire, ce qui supprime tout frein à sa prolifération : c’est la théorie du « relâchement de la pression des ennemis ». C’est bien le cas des plathelminthes terrestres en France et en Europe.
Nous avons sursauté quand nous avons trouvé les premières traces de parasites dans des plathelminthes terrestres envahissants. Mais, comme vous allez le lire, cette découverte n’a pas été aussi facile qu’on pourrait l’imaginer.
Nous n’avons pas vu ces parasites. Comment, alors, ont-ils été découverts ? Nous faisons, depuis plusieurs années, une analyse moléculaire des plathelminthes terrestres. En particulier, nous avons décrit, non pas le génome entier, ce qui serait très long et coûteux, mais le génome mitochondrial de plus d’une dizaine d’espèces.
Le génome mitochondrial, ou mitogénome, est celui qui permet aux mitochondries, ces petits éléments présents dans toutes les cellules, de fonctionner. Chez les plathelminthes, les organes sont noyés dans un tissu mou appelé parenchyme. Ainsi, lorsqu’on analyse un individu, on obtient non seulement son propre ADN, mais aussi celui de ses proies présentes dans l’intestin. Cela permet de mieux comprendre leur régime alimentaire en identifiant les espèces consommées.
Nous voilà donc faisant une analyse de routine sur deux espèces trouvées en Irlande du Nord, Kontikia andersoni et Australoplana sanguinea. Ces deux espèces viennent d’Australie et de Nouvelle-Zélande et ont envahi les îles Britanniques, mais pas (encore) l’Europe continentale. Les analyses ont rapidement permis de caractériser les mitogénomes des plathelminthes et de déterminer leurs proies, qui sont, dans les deux cas, des vers de terre. Mais une surprise nous attendait.
Dans chacune des espèces de plathelminthes, nous avons trouvé un signal moléculaire d’une espèce du genre Mitosporidium. Jusqu’ici, le genre Mitosporidium ne contenait qu’une seule espèce, Mitosporidium daphniae, qui est un parasite des daphnies, des petits crustacés d’eau douce. Mitosporidium est très original : c’est une microsporidie « primitive ». Que sont les microsporidies ? Des parasites unicellulaires.
Une microsporidie est devenue tristement célèbre dans les années 1980, Enterocytozoon bieneusi, qui infectait les patients atteints du sida dont l’immunité était compromise. Avant la génétique moléculaire, on classait les microsporidies dans les « protozoaires » et on les reconnaissait par leurs spores très caractéristiques. On a depuis compris que ce sont des champignons très modifiés par le parasitisme, en particulier par la perte des mitochondries.
Comme mentionné plus haut, les mitochondries sont des organites présents dans toutes les cellules des eucaryotes, mais les microsporidies, qui vivent dans les cellules de leurs hôtes, n’en ont plus besoin et s’en sont débarrassées.
Mais la nature aime les exceptions, et les scientifiques aiment les exceptions quand elles permettent de mieux comprendre la nature… Mitosporidium daphniae a toutes les caractéristiques d’une microsporidie, sauf qu’elle a conservé un génome de mitochondrie. C’est pour cela que l’on considère cette espèce comme « basale » : elle représenterait une étape de l’évolution des champignons vers les microsporidies, en ayant déjà la morphologie et la vie intracellulaire d’une microsporidie, mais en ayant gardé le mitogénome.
Et donc, nous avons trouvé deux nouvelles espèces de Mitosporidium, une dans chaque espèce de ver plat. Rien que le fait de faire passer ce genre d’une seule espèce à trois était déjà une découverte significative ; la seule espèce connue avait été décrite en 2014, et aucune depuis.
Un gros problème est apparu. Pour des raisons techniques, nous n’avons pas vu les microsporidies. On ne les reconnaît facilement que quand elles sont au stade de spores, et les autres stades, dans les tissus de l’hôte, sont difficiles à détecter. Et puis surtout, la question a été : de qui sont parasites ces microsporidies ? Rappelez-vous, notre analyse a été faite sur un mélange de tissus : tissus du plathelminthe prédateur et tissus du ver de terre dans son intestin. Ces Mitosporidium étaient-ils des parasites des plathelminthes eux-mêmes ou de leurs proies, les vers de terre ?
Pour l’instant, nous ne pouvons pas trancher définitivement, mais un principe biologique nous guide : la spécificité parasitaire. En effet, un parasite est souvent associé à une seule espèce d’hôte. Or, dans chaque plathelminthe terrestre étudié, nous avons trouvé une espèce unique de Mitosporidium.
Deux hypothèses sont possibles. Soit ces parasites viennent des vers de terre que les plathelminthes consomment – mais il faudrait alors admettre un hasard improbable : que chaque plathelminthe ait mangé une seule espèce de ver de terre, elle-même infectée par son parasite spécifique. Soit, plus simplement, chaque plathelminthe possède son propre Mitosporidium. C’est cette seconde hypothèse qui nous paraît la plus plausible, en attendant des analyses plus larges.
Nous supposons, donc, maintenant avoir découvert des parasites de vers plats envahissants. Selon la théorie générale du « relâchement de la pression des ennemis », un moyen de se débarrasser d’une espèce envahissante est de l’infecter par un parasite ou par un pathogène qui va réduire ses populations. Un exemple classique est celui du lapin en Australie : libéré de ses prédateurs et parasites, il s’est multiplié de façon incontrôlable et seule l’introduction de la myxomatose a permis de réduire un peu sa population. Mais ce n’est pas toujours facile : pour le frelon asiatique, envahissant en Europe, plusieurs parasites ont été identifiés, sans qu’aucun ne puisse freiner réellement son expansion.
Introduire des microsporidies pour réduire les populations de plathelminthes terrestres envahissants ? Une idée séduisante, mais nous en sommes très loin.
D’abord, comme expliqué plus haut, nous ne sommes pas encore sûrs que les Mitosporidium soient des parasites de plathelminthes. Ensuite, on ne sait pas du tout s’ils sont pathogènes ! La seule espèce connue avant notre travail, Mitosporidium daphniae, n’a qu’une petite influence négative sur la fertilité des daphnies infectées. Des années de recherche sont encore nécessaires.
Jean-Lou Justine est Rédacteur-en-Chef de Parasite, la revue scientifique de la Société Française de Parasitologie, dans laquelle a été publiée cette étude. Toutes les précautions éthiques ont été prises, en suivant les recommandations de COPE https://publicationethics.org/ .
Archie K. Murchie a reçu des financements du Department of Agriculture, Environment & Rural Affairs, Northern Ireland
Romain Gastineau a reçu des financements du ministère de la recherche et de l'éducation de Pologne.
Leigh Winsor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.10.2025 à 16:48
Stéphanie Balme, Director, CERI (Centre de recherches internationales), Sciences Po
Stéphanie Balme a mené pour France Universités une étude intitulée « Défendre et promouvoir la liberté académique : un enjeu mondial, une urgence pour la France et l’Europe. Constats et 65 propositions d’action ». Elle en livre ici quelques enseignements.
Dévoilé officieusement le 2 octobre 2025, le Compact for Academic Excellence in Higher Education de Donald Trump illustre de manière paroxystique la politisation du savoir et la volonté de contrôle idéologique de la production scientifique aux États-Unis. Derrière le discours de « restauration de l’excellence » se profile une nouvelle étape dans l’institutionnalisation du sciento-populisme : la défiance envers la science y est exploitée de manière stratégique afin de flatter les affects populistes et de transformer les universitaires en boucs émissaires, rendus responsables du « déclin » de l’hégémonie civilisationnelle américaine.
Ce phénomène, bien que caricatural, n’est pas isolé. Simultanément à l’annonce de Donald Trump, l’édition 2025 du Global Innovation Index (GII) révèle que la Chine intègre pour la première fois le top 10 des nations les plus innovantes, tandis que les États-Unis, encore troisièmes, montrent des fragilités structurelles. Huit pays européens, fait trop peu connu, figurent parmi les quinze premiers de ce classement. La France, quant à elle, est rétrogradée mais conserve néanmoins la treizième place, celle qu’occupait la Chine trois ans auparavant.
Les 80 indicateurs du GII, couvrant près de 140 pays, ne se limitent pas à mesurer la performance technologique ou scientifique : ils évaluent également la capacité des États à garantir un environnement politico-institutionnel, économique et financier complet, libre et sûr. En croisant ces données avec celles de l’Academic Freedom Index, principal outil de référence élaboré depuis 2019, on constate que la liberté académique n’est plus uniquement menacée dans les régimes autoritaires. Elle se fragilise désormais au cœur même des démocraties, affectant à parts égales les sciences humaines et sociales et les sciences expérimentales.
L’attribution du prix Nobel d’économie 2025 à Philippe Aghion, Peter Howitt et Joel Mokyr rappelle opportunément que la croissance et l’innovation reposent sur un écosystème fondé sur la liberté de recherche et la circulation des idées. Leurs travaux sur les conditions historiques et structurelles du progrès technologique montrent qu’aucune économie ne peut prospérer durablement lorsque la connaissance est contrainte ou soumise à un contrôle idéologique.
Paradoxalement, les régimes autoritaires comptent aujourd’hui parmi les principaux investisseurs dans la recherche, dont ils orientent néanmoins strictement les finalités selon leurs priorités politiques. Engagés dans une phase ascendante de développement technonationaliste, ils investissent massivement dans la science et la technologie comme instruments de puissance, sans encore subir les effets corrosifs de la défiance envers le savoir.
Les démocraties, à l’inverse, peinent à financer la recherche tout en soutenant leurs dépenses de défense et doivent affronter la montée de mouvements contestant la légitimité même de la science telle qu’elle se pratique. C’est afin de mieux comprendre ces dynamiques que j’ai conduit pour France Universités une étude intitulée « Défendre et promouvoir la liberté académique : un enjeu mondial, une urgence pour la France et l’Europe. Constats et 65 propositions d’action ».
La France illustre particulièrement les vulnérabilités décrites plus haut. En 2024‑2025, les atteintes à la liberté académique y ont pris des formes multiples : ingérences étrangères accrues, conditionnement des financements publics régionaux à des chartes aux critères flous, pressions idéologiques sur les contenus d’enseignement et de recherche, annulations de conférences, campagnes de stigmatisation d’enseignants-chercheurs sur les réseaux sociaux, interventions de responsables politiques jusque dans les conseils d’administration d’universités, restrictions d’accès aux terrains ou à des bourses de recherche, et enfin, multiplication des procédures-bâillons.
Contrairement à d’autres droits fondamentaux, la liberté académique en France se distingue par l’absence d’une culture politique, professionnelle et citoyenne solidement enracinée. Les universitaires victimes d’atteintes dans leur liberté d’exercer leur métier se retrouvent souvent isolés, tandis que la capacité institutionnelle des universités à jouer un rôle de contre-pouvoir demeure limitée.
Cette vulnérabilité est aggravée par la dépendance aux financements publics, la précarisation des carrières, la surcharge administrative et l’absence d’autonomie institutionnelle réelle. Néanmoins, cette fragilité actuelle pourrait se transformer en levier de refondation, favoriser l’émergence d’une culture solide de la liberté académique et, ce faisant, renforcer la position de la France dans la géopolitique scientifique mondiale.
L’étude pour France Universités propose une stratégie proactive articulée autour de plusieurs axes complémentaires, visant quatre catégories d’acteurs : l’État, les universités, la société civile et l’échelon européen.
Le premier axe concerne le renforcement du socle juridique : constitutionnaliser la liberté académique, réaffirmer l’autonomie des établissements et l’indépendance des personnels ; enfin, reconnaître le principe du secret des sources comme pour les journalistes et intégrer un régime spécifique dans le Code de la recherche pour les données sensibles. Il est également proposé d’étendre le dispositif de protection du potentiel scientifique et technique de la nation (PPST) aux sciences humaines et sociales en intégrant les risques d’ingérence pour concilier sécurité et liberté scientifiques.
Le deuxième axe porte sur l’action des universités : coordonner les initiatives à l’échelle nationale via un organisme indépendant, généraliser les chartes de liberté académique dans l’ensemble des établissements et organismes de recherche, renforcer la protection fonctionnelle des enseignants grâce à un fonds national dédié et instaurer des protocoles d’assistance rapide. Il prévoit également la création d’un observatoire indépendant des atteintes à la liberté académique, la formation des directions et des référents à ces enjeux, ainsi que la coordination d’un soutien juridique, psychologique et numérique pour les universitaires pris pour cibles. Enfin, cet axe vise à favoriser une collaboration croisée entre fonctionnaires sécurité‑défense et chercheurs et enseignants-chercheurs.
Le troisième axe vise à promouvoir une véritable culture de la liberté académique dans l’espace public : lancer une campagne nationale de sensibilisation, encourager les initiatives étudiantes, transformer la Fête de la science en Fête de la science et de la liberté académique, organiser des États généraux pour définir un plan d’action participatif, et déployer une vaste campagne de valorisation de la recherche en partenariat avec l’ensemble des opérateurs, à commencer par le CNRS. Cette campagne, appuyée sur des supports visuels, des affiches, des dessins et un hashtag fédérateur, doit célébrer la recherche dans tous les médias et rappeler son rôle essentiel au service d’une société démocratique.
Le quatrième et dernier axe vise à inscrire ces mesures dans la diplomatie scientifique européenne, en rétablissant un classement européen des universités du monde entier intégrant un indice de liberté académique, et en œuvrant à son inclusion dans les grands classements internationaux ; renforcer la coopération entre l’Association européenne des universités et les alliances universitaires européennes ; instaurer un observatoire européen de la liberté académique ; créer un passeport européen des talents pour les chercheurs réfugiés ; faire de l’Europe un espace-refuge pour les scientifiques en danger, jusqu’à obtenir, à terme, une reconnaissance sous la forme d’un prix Nobel de la paix dédié à la liberté académique.
Défendre la liberté académique n’est pas un réflexe corporatiste : c’est, au contraire, protéger un bien commun précieux et la condition même d’une démocratie vivante. Ce droit n’appartient qu’à un petit nombre, certes, mais il profite à toutes et à tous, à l’instar de la liberté de la presse, garantie par la loi de 1881. Contrairement à une idée reçue, les universitaires sont souvent les derniers à défendre leur droit professionnel, quand les journalistes, à juste titre, protègent activement le leur.
Le système universitaire français, tel qu’il s’est construit depuis 1945, et plus encore après 1968, n’a pas été pensé pour affronter l’autoritarisme. Aujourd’hui, les établissements français ne seraient pas en mesure de résister très longtemps à des attaques systématiques en cas d’arrivée au pouvoir d’un régime populiste et/ou autoritaire. Puissantes, riches et autonomes, les universités de l’Ivy League ont elles-mêmes vacillé face au mouvement MAGA et peinent encore à s’en relever. De nombreux scientifiques américains rejoignent aujourd’hui l’Europe, le Japon ou la Corée du Sud.
Comment, dès lors, les universités françaises, à la fois financièrement et institutionnellement dépendantes, et ne disposant que d’associations d’anciens élèves (alumni) encore récentes, pourraient-elles faire face à un tel assaut ? Sans compter que ce serait, à terme, la fin de l’ambition portée par le programme Choose Europe For Science.
Malgré la gravité de la situation, celle-ci ouvre un espace inédit pour l’action collective, l’innovation démocratique et la construction de solutions concrètes. Il est désormais temps d’agir collectivement, de coordonner les acteurs et de lancer une vaste campagne nationale et européenne en faveur de la liberté académique : tel est l’objet de ce rapport.
Stéphanie Balme ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.10.2025 à 11:41
Ian Towle, Research Fellow in Biological Anthropology, Monash University
Luca Fiorenza, Senior Lecturer in Anatomical Sciences, Monash University

Une étude sur plus de 500 primates sauvages montre que les « sillons de cure-dents » sur les dents fossiles peuvent se former naturellement, tandis que certaines pathologies modernes, comme les abfractions, sont propres aux humains.
Depuis des décennies, de fines rainures observées sur des dents humaines préhistoriques étaient interprétées comme la preuve d’un geste délibéré : des humains nettoyant leurs dents à l’aide de petits bâtons ou de fibres végétales, ou cherchant à soulager une douleur gingivale. Certains chercheurs y ont même vu la plus vieille habitude humaine.
Mais selon une étude publiée dans l’American Journal of Biological Anthropology, cette hypothèse serait à revoir. Les auteurs ont constaté que ces mêmes stries apparaissent aussi naturellement chez des primates sauvages, sans qu’aucun comportement de curetage dentaire ne soit observé. Encore plus surprenant : l’analyse de plus de 500 primates, appartenant à 27 espèces vivantes ou fossiles, n’a révélé aucune trace d’une maladie dentaire fréquente chez l’humain moderne, les lésions dites d’abfraction – ces entailles profondes en forme de V au niveau de la gencive.
Ces découvertes invitent à repenser l’interprétation des fossiles et ouvrir de nouvelles pistes sur ce qui, dans l’usure et les pathologies de nos dents, témoigne d’une évolution proprement humaine.
Les dents sont la partie la plus résistante du squelette et survivent souvent bien après la décomposition du reste du corps. Les anthropologues s’en servent pour reconstituer les régimes alimentaires, les modes de vie et l’état de santé des populations anciennes.
Même les plus petites marques peuvent avoir une grande signification. L’une des plus fréquentes est une fine rainure qui traverse la racine exposée de certaines dents, souvent entre deux d’entre elles. Depuis le début du XXᵉ siècle, ces traces ont été baptisées « marques de cure-dent » et interprétées comme les signes d’un usage d’outils ou de pratiques d’hygiène dentaire.
On en a signalé tout au long de notre histoire évolutive, sur des fossiles vieux de deux millions d’années jusqu’aux Néandertaliens. Mais jusqu’ici, personne n’avait réellement vérifié si d’autres primates présentaient ces mêmes marques. Une autre affection, appelée abfraction, se manifeste différemment : par des entailles profondes en forme de coin à la base de la gencive. Très fréquentes en dentisterie moderne, elles sont souvent associées au grincement des dents, à un brossage trop vigoureux ou à la consommation de boissons acides. Leur absence sur les fossiles connus intrigue depuis longtemps les chercheurs : les autres primates en sont-ils vraiment exempts ?
Pour vérifier ces hypothèses, nous avons analysé plus de 500 dents appartenant à 27 espèces de primates, actuelles et fossiles. L’échantillon comprenait notamment des gorilles, des orang-outans, des macaques, des colobes et plusieurs singes disparus. Fait essentiel, tous les spécimens provenaient de populations sauvages, ce qui signifie que l’usure de leurs dents n’a pas pu être influencée par les brosses à dents, les boissons gazeuses ou les aliments transformés.
Nous avons recherché des lésions cervicales non carieuses – un terme désignant une perte de tissu au niveau du col de la dent qui n’est pas causée par la carie. À l’aide de microscopes, de scanners 3D et de mesures de perte de tissu, nous avons documenté même les plus petites lésions.
Environ 4 % des individus présentaient des lésions. Certaines ressemblaient presque exactement aux classiques « sillons de cure-dents » observés sur les fossiles humains fossiles, avec de fines rayures parallèles et des formes effilées. D’autres lésions étaient peu profondes et lisses, surtout sur les dents de devant, probablement causées par les fruits acides que beaucoup de primates consomment en grande quantité.
Mais une absence nous a frappé. Nous n’avons trouvé aucune lésion par abfraction. Malgré l’étude d’espèces ayant une alimentation extrêmement dure et des forces de mastication puissantes, aucun primate n’a présenté les défauts en forme de coin si couramment observés dans les cliniques dentaires modernes.
Premièrement, cela signifie que les sillons ressemblant à des marques de cure-dents ne prouvent pas nécessairement l’utilisation d’outils. La mastication naturelle, les aliments abrasifs, ou même le sable ingéré peuvent produire des motifs similaires. Dans certains cas, des comportements spécialisés, comme arracher de la végétation avec les dents, peuvent également y contribuer. Il faut donc rester prudent avant d’interpréter chaque sillon fossile comme un acte délibéré de curetage dentaire.
Deuxièmement, l’absence totale de lésions par abfraction chez les primates suggère fortement qu’il s’agit d’un problème propre aux humains, lié à nos habitudes modernes. Elles sont beaucoup plus probablement causées par un brossage trop vigoureux, les boissons acides et les régimes alimentaires transformés que par les forces de mastication naturelles. Cela place les abfractions aux côtés d’autres problèmes dentaires, comme les dents de sagesse incluses ou les dents mal alignées, qui sont rares chez les primates sauvages mais fréquents chez l’homme aujourd’hui. Ces observations alimentent un domaine de recherche émergent appelé odontologie évolutive, qui utilise notre passé évolutif pour comprendre les problèmes dentaires actuels.
À première vue, les sillons sur les dents fossiles peuvent sembler anecdotiques. Pourtant, ils ont une importance à la fois pour l’anthropologie et pour la dentisterie. Pour la science évolutive, ils montrent qu’il est essentiel d’observer nos plus proches parents avant de conclure à une explication culturelle spécifique ou unique. Pour la santé moderne, ils mettent en évidence à quel point nos régimes alimentaires et nos modes de vie modifient profondément nos dents, nous distinguant des autres primates.
En comparant les dents humaines à celles des autres primates, il devient possible de distinguer ce qui est universel (l’usure inévitable due à la mastication) de ce qui est propre à l’homme – le résultat des régimes alimentaires, des comportements et des soins dentaires modernes.
Les recherches futures porteront sur des échantillons plus larges de primates, examineront les liens entre régime alimentaire et usure dentaire dans la nature, et utiliseront des techniques d’imagerie avancées pour observer la formation des lésions. L’objectif est d’affiner notre interprétation du passé tout en découvrant de nouvelles façons de prévenir les maladies dentaires aujourd’hui.
Ce qui peut ressembler à un sillon de cure-dents sur une dent humaine fossile pourrait tout aussi bien être un simple sous-produit de la mastication quotidienne. De même, il pourrait refléter d’autres comportements culturels ou alimentaires laissant des marques similaires. Pour démêler ces possibilités, il faut disposer de jeux de données comparatifs beaucoup plus larges sur les lésions des primates sauvages ; ce n’est qu’ainsi que l’on pourra identifier des tendances générales et affiner nos interprétations du registre fossile.
Parallèlement, l’absence de lésions par abfraction chez les primates suggère que certains de nos problèmes dentaires les plus courants sont propres à l’homme. Cela rappelle que même dans quelque chose d’aussi quotidien qu’un mal de dents, notre histoire évolutive est inscrite dans nos dents, mais façonnée autant par nos habitudes modernes que par notre biologie ancienne.
Ian Towle reçoit un financement du Conseil australien de la recherche (Australian Research Council, ARC DP240101081).
15.10.2025 à 11:41
Maria Ahmad, PhD Candidate, Cognitive Neuroscience, Psychology and Language Sciences, UCL

Un plongeon au cœur de l’océan Pacifique pour comprendre comment, sans instruments ni technologie, les navigateurs des îles Marshall lisaient les vagues, le vent et les étoiles pour retrouver leur chemin, et comment les neurosciences modernes tentent de décrypter ce savoir ancestral.
L’un des plus grands défis de la navigation consiste à savoir où l’on se trouve au milieu de l’océan, sans le moindre instrument. Cette aptitude extraordinaire est illustrée par les techniques ancestrales qu’utilisaient autrefois les navigateurs chevronnés des îles Marshall, un chapelet d’îles et d’atolls coralliens situés entre Hawaï et les Philippines.
Aux côtés d’un neuroscientifique spécialiste de la cognition, d’un philosophe, d’une anthropologue marshallaise et de deux marins autochtones, j’ai pris part à une expédition destinée à comprendre comment les navigateurs marshallais se repèrent en mer grâce à leur environnement. À bord du Stravaig, un trimaran (une embarcation à trois coques) de douze mètres, le vent et les vagues nous ont portés sur soixante milles nautiques, de l’atoll de Majuro à celui d’Aur.
Durant les six années que j’ai vécues aux îles Marshall, je n’avais jamais dépassé Eneko, un petit îlot situé à l’intérieur du lagon de Majuro. J’étais sans cesse ramenée au récif, là où le lagon rejoint l’océan, observant l’écume blanche se former lorsque les vagues se brisaient contre la barrière qui protégeait l’atoll.
C’est la connaissance intime de ces vagues que le « ri meto » – littéralement « la personne de la mer », titre conféré par le chef au navigateur – consacrait sa vie à maîtriser. En percevant les infimes variations de la houle, le « ri meto » pouvait déterminer la direction et la distance d’îles situées à des milliers de kilomètres au-delà de l’horizon.
Grâce à ce savoir ancestral, le « ri meto » maîtrisait l’une des compétences les plus extraordinaires jamais acquises par l’être humain : la navigation dans le Pacifique. Mais l’histoire tragique des îles Marshall a fait disparaître cette pratique, et il n’existe aujourd’hui plus aucun « ri meto » officiellement reconnu.
Alson Kelen est l’élève du dernier « ri meto » connu. Ses parents ont été déplacés de l’atoll de Bikini, au nord de l’archipel, lors du programme nucléaire américain qui a fait exploser soixante-sept bombes atomiques et thermonucléaires dans les îles Marshall dans les années 1940 et 1950.
Au-delà des destructions et des souffrances immenses qu’il a provoquées, ce programme a brisé la transmission intergénérationnelle des savoirs traditionnels, notamment celui de la navigation. Dans le cadre des efforts de renaissance menés par l’anthropologue Joseph Genz, Alson Kelen a, en 2015, pris la barre du jitdaam kapeel, une pirogue traditionnelle marshallaise, pour rallier Majuro à Aur en s’appuyant uniquement sur les techniques de navigation ancestrales qu’il avait apprises auprès de son maître.
Inspirée par cette expérience, je me suis interrogée sur le rôle que les neurosciences pouvaient jouer dans la compréhension de l’orientation en mer. Des travaux de recherche sur la navigation spatiale ont montré comment les processus neuronaux et cognitifs du cerveau nous aident à nous repérer. La plupart de ces études portent toutefois sur la navigation terrestre, menée en laboratoire ou dans des environnements contrôlés à l’aide de jeux vidéo ou de casques de réalité virtuelle. En mer, les exigences cognitives sont bien plus grandes : il faut composer avec des facteurs en constante évolution, comme la houle, le vent, les nuages et les étoiles.
Directeur de Waan Aelon in Majel, une école locale de construction et de navigation de pirogues, Alson Kelen a choisi deux marins traditionnels chevronnés pour se joindre à notre expédition de recherche.
À l’approche du chenal, les vagues régulières du lagon ont laissé place à la houle plus lourde de l’océan qui frappait la coque. L’équipage a resserré les cordages, les voiles ont été hissées. Soudain, j’ai senti la houle dominante venue de l’est soulever le bateau. Nous venions de quitter le calme du lagon et mettions le cap sur l’atoll d’Aur.
Pendant les deux jours suivants, le Stravaig est devenu notre laboratoire flottant. Durant plus de quarante heures, nous avons recueilli des données cognitives et physiologiques sur les neuf membres de l’équipage, ainsi que des données environnementales continues dans un milieu en perpétuelle évolution.
Nous avons demandé à chacun de suivre sa position estimée tout au long du voyage. Seuls deux membres de l’équipage – le capitaine et son second – avaient accès au GPS à intervalles réguliers ; les autres se fiaient uniquement à l’environnement et à leur mémoire. Toutes les heures, chaque membre indiquait sur une carte l’endroit où il pensait se trouver, ainsi que ses estimations du temps et de la distance restant avant d’apercevoir les premiers signes de terre, puis avant l’arrivée sur l’atoll. Ils notaient également tous les repères environnementaux utilisés, tels que les vagues, le vent ou la position du soleil.
L’équipage évaluait également quatre émotions clés tout au long du trajet : bonheur, fatigue, inquiétude et mal de mer. Chaque membre portait une montre connectée Empatica, qui enregistrait les variations de fréquence cardiaque.
Un accéléromètre était fixé sur le pont supérieur pour enregistrer les mouvements du bateau au gré des vagues. Une caméra GoPro 360° montée séparément capturait les variations des voiles, des nuages, du soleil et de la lune, ainsi que les déplacements de l’équipage sur le pont.
Juste avant que le dernier morceau de terre ne disparaisse sous l’horizon, chaque membre de l’équipage a désigné cinq atolls : Jabwot, Ebeye, Erikub, Aur Tabal, Arno et Majuro. Une boussole recouverte servait à enregistrer les relevés. Cette opération a été répétée tout au long du voyage afin de tester les compétences d’orientation sans référence à la terre.
À la fin de cette traversée, nous disposions d’une riche collection de données mêlant expériences subjectives et mesures objectives de l’environnement. Chaque estimation tracée sur la carte, chaque émotion, chaque variation de fréquence cardiaque était enregistrée en parallèle des changements de houle, de vent, de ciel et des relevés GPS. Ces nouvelles données constituent la base d’un modèle capable de commencer à expliquer le processus cognitif de l’orientation en mer, tout en offrant un aperçu de cette capacité humaine ancestrale que le « ri meto » maîtrisait depuis longtemps.
Ce projet de recherche est dirigé par le professeur Hugo Spiers, professeur de neurosciences cognitives à l’University College London. L’équipe de recherche comprend : Alson Kelen, directeur de Waan Aelon in Majel ; le professeur Joseph Genz, anthropologue à l’Université de Hawaï à Hilo ; le professeur John Huth Donner, professeur de physique à Harvard University ; le professeur Gad Marshall, professeur de neurologie à la Harvard Medical School ; le professeur Shahar Arzy, professeur de neurologie à l’Université hébraïque de Jérusalem ; le Dr Pablo Fernandez Velasco, postdoctorant financé par la British Academy à l’Université de Stirling ; Jerolynn Neikeke Myazoe, doctorante à l’Université de Hawaï à Hilo ; Clansey Takia et Binton Daniel, instructeurs de navigation et de construction de pirogues traditionnelles WAM ; Chewy C. Lin, réalisateur de documentaires ; et Dishad Hussain, directeur chez Imotion Films. Ce projet a été soutenu par le Royal Institute of Navigation, l’University College London, le Centre for the Sciences of Place and Memory de l’Université de Stirling (financé par le Leverhulme Trust), le Royal Veterinary College, Glitchers, Neuroscience & Design, Empatica, Imotion et Brunton.
15.10.2025 à 11:41
Jonathan Biteau, Maître de conférence en physique des astroparticules, Université Paris-Saclay

Les humains utilisent les astres pour se repérer depuis la nuit des temps. Aujourd’hui, la précision de nos systèmes de géolocalisation dépend des blazars, ces phares cosmiques qui abritent des trous noirs. Découvrons leurs mystères en nous aidant de l’analogie avec les phares qui ponctuent la côte et qui guident les marins dans la nuit.
Depuis la plage du Prat, au cœur de l’île d’Ouessant (Finistère), on aperçoit l’imposant phare du Créac’h au-dessus des flots. Par nuit claire, le phare de Créac’h est visible à plus de 32 milles marins (environ 60 kilomètres). Considéré comme le phare le plus puissant d’Europe, le Créac’h est un guide inestimable pour les équipages des bateaux, suppléant aux systèmes de navigation par satellite utilisés en cabine.
De nos jours, nous utilisons quotidiennement le positionnement par satellite via nos téléphones portables. Cependant, nous oublions souvent que la précision de ces systèmes de localisation repose sur des principes de physique fondamentale et des mesures d’astronomie de pointe.
Dans le passé, les marins utilisaient comme points de référence l’étoile Polaire ou des galaxies proches, telles que les nuages de Magellan situés à quelques centaines de milliers d’années-lumière. Le positionnement des satellites repose quant à lui sur l’utilisation de points lumineux sur la voûte céleste dont la direction est suffisamment stable. Les points de référence les plus stables connus sont des balises cosmiques situées à plusieurs milliards d’années-lumière. Leurs noms ? Les blazars.
Les théories de la relativité générale et restreinte d’Einstein sont au cœur de notre compréhension des blazars. Le feu d’un phare comme le Créac’h est constitué de puissantes lampes halogènes dont le faisceau est concentré par des lentilles de Fresnel.
Un blazar est quant à lui constitué de deux faisceaux, des jets faits de plasma se déplaçant à plus de 99,5 % de la vitesse de la lumière. Contrairement aux faisceaux de phares, les jets de blazars ne tournent pas : ils restent relativement stables du point de vue de l’observateur.
À l’origine de ces jets se trouve un trou noir des milliers de fois plus massif que celui situé au centre de notre galaxie. C’est la rotation du trou noir sur lui-même et celle du disque de matière l’entourant qui permettent d’injecter de l’énergie dans les jets. La source d’énergie à l’origine de la lumière d’un blazar est donc paradoxalement un trou noir !
Ces jets astrophysiques sont observés dans des galaxies proches comme la radiogalaxie Messier 87. Depuis la Terre, les deux jets de cette galaxie sont observés de biais. L’un des deux jets est plus brillant car le plasma qu’il émet a tendance à s’approcher de nous, tandis que le plasma émis par l’autre jet s’éloigne. Plus l’angle entre le faisceau du phare et notre ligne de visée (l’axe entre le phare et l’observateur) est grand, plus la lumière que nous recevons du faisceau est faible. Mais que se passerait-il si l’un des jets était dirigé vers la Terre ? Nous observerions un phare extrêmement lumineux : un blazar. Une radio galaxie comme Messier 87 n’est donc rien d’autre qu’un blazar désaxé.
Un blazar, défini par l’orientation d’un de ses jets vers la Terre, peut ainsi être des dizaines de milliers de fois plus brillant qu’une radio galaxie située à la même distance.
Les lentilles de Fresnel du Créac’h concentrent la lumière de lampes halogènes en faisceaux de photons qui voyagent jusqu’aux équipages marins. Pour les blazars, c’est un plasma de particules énergétiques qui se propagent selon l’axe des jets. Ces particules perdent une partie de leur énergie en émettant de la lumière dans le domaine visible et en ondes radio, par rayonnement synchrotron. C’est ce même rayonnement qui limite les énergies qu’atteignent les accélérateurs de particules construits sur Terre, tel le grand collisionneur de hadrons (LHC) du CERN.
Mais si les pertes synchrotron constituent un facteur limitant pour les ingénieurs de faisceaux de particules terrestres, elles offrent aux astronomes et physiciens des astroparticules une formidable fenêtre d’observation sur des phénomènes naturels autrement plus énergétiques que ceux des accélérateurs artificiels.
Ainsi, les pertes par rayonnement des blazars ne se limitent pas aux ondes radio et à la lumière visible. Elles s’étendent également aux rayons X et aux rayons gamma.
Les rayons gamma les plus énergétiques en provenance de blazars ont été observés à des énergies dix mille milliards de fois supérieures à celle des photons visibles. Les particules qui ont émis ces rayons gamma sont encore plus énergétiques, jusqu’à des millions de fois s’il s’agit de rayons cosmiques de type protons plutôt que d’électrons.
Identifier la nature des particules émettant les rayons gamma des blazars pourrait ainsi éclairer le mystère encore tenace de l’origine des rayons cosmiques et des neutrinos les plus énergétiques que nous observons.
Les blazars les plus éloignés émettent depuis une époque correspondant au premier milliard d’années suivant le Big Bang, dans un univers qui soufflera bientôt ses 14 milliards de bougies. La quantité de rayons gamma qui nous parvient des phares lointains est faible, non seulement en raison de leur distance, mais aussi à cause d’une brume un peu particulière qui imprègne même les régions les plus reculées du cosmos.
Par temps brumeux, le phénomène qui limite la portée du Créac’h est la diffusion de la lumière visible par les minuscules gouttelettes d’eau qui composent le brouillard. Le feu du phare, que les marins devraient voir comme une source quasi ponctuelle, apparaît comme une tâche de plus en plus diffuse à mesure qu’ils s’éloignent de la côte.
La portée des blazars émettant les rayons gamma les plus énergétiques est quant à elle limitée par un phénomène de physique des particules : l’annihilation de deux particules de lumière — un photon gamma et un photon de plus faible énergie — en une paire électron-positron. Pour les faisceaux gamma de blazars, la brume est donc faite de lumière !
Plus l’énergie du rayon gamma est élevée, et plus la distance du blazar qui l’émet est grande, plus l’atténuation du flux reçu est importante. Les photons de faible énergie jouant le rôle de minuscules gouttelettes résultent de l’émission cumulée de toutes les étoiles et galaxies depuis le début de l’univers.
Jusqu’à récemment, la détection de ces « gouttelettes » représentait un véritable défi observationnel. Les trois techniques de mesure connues, dont celle qui exploite l’atténuation des rayons gamma, semblent désormais atteindre des valeurs compatibles entre elles, ouvrant la voie à de nouveaux outils cosmologiques pour répondre au paradoxe d’Olbers ou à la tension de Hubble.
Les blazars n’ont-ils donc plus aucun mystère pour nous ? Loin de là.
Alors que les phares maritimes clignotent à intervalles réguliers pour permettre aux équipages de les identifier, les blazars brillent de manière erratique, à l’image des cours boursiers fluctuant au fil des ans. Lors des éruptions les plus extrêmes, on a même observé le flux de blazars doubler en quelques minutes seulement ! Comprendre ces éruptions représente encore un défi pour l’astrophysique des hautes énergies et la physique des plasmas.
L’avènement d’observatoires comme le Vera C. Rubin Observatory dans le domaine visible et le Cherenkov Telescope Array Observatory en rayons gamma promet des avancées majeures dans la cartographie des éruptions de blazars. Tout en levant le voile de la brume cosmique, ces observations promettent de mieux comprendre les accélérateurs persistants les plus puissants du cosmos.
Jonathan Biteau a reçu des financements de l'Université Paris-Saclay et de l'Institut Universtaire de France.
15.10.2025 à 11:15
Élise Huchard, Directrice de recherche au CNRS, Université de Montpellier

Depuis Darwin et jusqu’à la fin des années 1990, les recherches sur les stratégies de reproduction des animaux s’intéressaient surtout aux mâles. Une prise de conscience a ensuite eu lieu, en réalisant qu’il pourrait être intéressant de ne pas seulement étudier la moitié des partenaires… C’est dans ce contexte de début de XXIe siècle qu’Élise Huchard démarre sa thèse sur les stratégies de reproduction des femelles babouins chacma, espèce qu’elle étudie depuis une vingtaine d’années grâce à un terrain de recherche en Namibie. Elle est aujourd’hui directrice de recherche au CNRS et travaille à l’Institut des sciences de l’évolution de Montpellier (Hérault). Ses travaux ont été récompensés en 2017 par la médaille de bronze du CNRS. La biologiste de l’évolution fait le point avec Benoît Tonson, chef de rubrique Science, sur ce que l’on sait des dominances mâles ou femelles chez les primates.
The Conversation France : Pourquoi, pendant près de 150 ans, les scientifiques ne se sont-ils intéressés qu’aux mâles ?
Élise Huchard : On peut remonter à Darwin et à son ouvrage, la Filiation de l’homme et la sélection liée au sexe. Ce livre succède au fameux De l’origine des espèces et va proposer la théorie de la sélection sexuelle pour expliquer certaines observations qui ne collent pas avec sa théorie de la sélection naturelle. L’exemple que prend Darwin, c’est la queue du paon. Comment cette queue peut-elle l’aider à survivre dans un monde rempli de prédateurs ? Du point de vue de la survie de l’individu, cela ressemble plutôt à un désavantage, et ce caractère n’aurait pas dû être sélectionné.
Mais il n’y a pas que la survie qui importe, et il faut aussi laisser des descendants. Selon la théorie de la sélection sexuelle, les membres d'un sexe - en général les mâles - sont en compétition entre eux pour l’accès aux membres de l'autre sexe - en général les femelles, qui vont choisir parmi les vainqueurs. Dans ce contexte, un trait qui permet de donner un avantage sur les autres mâles – soit pour gagner les combats, soit pour être plus séduisant que les rivaux – va être sélectionné. Selon ce schéma de pensée, les femelles sont essentiellement passives et, donc, on va surtout s’intéresser aux mâles.
Ce paradigme va changer dans les années 1990, notamment sous l’impulsion de philosophes féministes qui affirment que la science n’est pas aussi neutre qu’elle le prétend et s’inscrit toujours dans un contexte sociétal donné. Donna Haraway prend ainsi l’exemple de la primatologie pour affirmer qu’on a longtemps projeté nos propres biais sur l’étude des sociétés des singes, en mettant en avant des mâles dominants et des femelles passives, subordonnées.
C’est dans ce contexte que vous démarrez votre thèse…
É. H. : Oui, c’était en 2005, il y avait eu cette introspection qui disait que, jusqu’à présent, les travaux avaient été biaisés en faveur des mâles et qu’il fallait documenter le versant femelle de la sélection sexuelle. Ma thèse a donc porté sur l’étude des babouines et, plus précisément, sur le choix d’accouplement et les stratégies reproductives des femelles. A première vue, elles semblaient très actives, avec beaucoup de sollicitations sexuelles de la part des femelles envers les mâles, ce qui laissait à penser qu'elles jouissaient d'une certaine liberté dans leur sexualité.
Comment avez-vous étudié ces relations ?
É. H. : Mon terrain de recherche a été, dès ma thèse, le site d’étude de Tsaobis en Namibie, site que je codirige aujourd’hui. C’est un terrain de recherche continu depuis 2000 où des scientifiques se succèdent pour étudier deux groupes de babouins chacma. En ce moment, nous suivons une troupe d’environ 85 individus et une autre de 65 environ. Le cœur de notre activité, c’est d’essayer de documenter les histoires de vie des individus. Donc de suivre chaque individu de sa naissance à sa mort ou, en tout cas, tout ce qu’on peut suivre de sa vie et tous les événements qui lui arrivent. On suit les lignées maternelles, ça, c’est très facile parce qu’on voit les bébés naître et se faire allaiter, mais on arrive aussi à retracer les lignées paternelles grâce à la biologie moléculaire avec l’ADN pour faire des tests de paternités.
On suit deux groupes en permanence et donc on envoie a minima deux personnes par groupes et par jour. C’est très exigeant physiquement : le matin, il faut être avec les babouins avant l’aube, parce qu’après ils vont quitter la falaise où ils dorment pour commencer à bouger. Il faut ensuite les suivre toute la journée. Il y a des journées où il fait très chaud pendant lesquelles ils ne vont pas faire grand-chose, mais d’autres journées où ils sont capables de se déplacer sur 15 à 20 kilomètres et donc il faut les suivre ! C’est un endroit montagneux, ils sont difficiles à suivre puisqu’ils sont beaucoup plus agiles que nous. Les panoramas sont absolument spectaculaires, mais cela demande vraiment beaucoup d’efforts !
Et qu’avez-vous appris ?
É.H. : J’ai testé une hypothèse qui disait que l’on choisissait son partenaire sexuel en fonction de ses gènes immunitaires, par exemple avec des gènes complémentaires aux siens de façon à avoir une descendance très diverse génétiquement. J’ai passé des heures et des heures sur le terrain à observer les modèles d’accouplements, à essayer de déterminer des préférences. J’ai également passé des jours et des jours au laboratoire à génotyper les babouins pour tester cette hypothèse. Et tout ça pour des résultats négatifs ! Je ne détectais aucune préférence, aucun choix des femelles pour les mâles.
Je devais donc discuter de ces résultats négatifs dans mon manuscrit de thèse. Plusieurs de mes observations ne collaient pas avec notre hypothèse de départ. Déjà, chez les babouins, contrairement aux paons et à de nombreuses espèces où les mâles sont plus colorés que les femelles, ce sont les femelles qui arborent des ornements sexuels : des tumescences au moment de l’ovulation. Cela laissait à penser que, si ce sont les femelles qui produisent ces ornements, alors ce sont aussi les femelles qui sont choisies par les mâles plutôt que l’inverse. Ensuite, j’avais souvent assisté à des situations de violence assez inexpliquées des mâles envers les femelles. Comportement que l’on peut retrouver également chez les chimpanzés. Je ne comprenais pas bien, car ces attaques, potentiellement très violentes, se produisaient à des moments où les femelles n’étaient pas forcément sexuellement réceptives et ne faisaient rien de particulier. Or, quand on connaît bien les babouins, cela interpelle : certes, il peut y avoir des conflits dans leurs grands groupes, mais c’est rarement sans raison.
À ce moment-là sort un article scientifique d’une équipe américaine sur les chimpanzés qui, pour la première fois, testait l’hypothèse de l’intimidation sexuelle pour expliquer certaines agressions. Selon cette hypothèse, une agression peut être décrite comme de la coercition sexuelle (1) si elle cible plus les femelles fertiles que les non fertiles, (2) si elle est coûteuse pour ces dernières – c’est-à-dire qu’il ne s’agit pas simplement d’une démonstration de force, mais d’une véritable agression qui entraîne de la peur et des blessures pour les femelles qui en sont victimes –, enfin (3) si ces violences permettent d’augmenter le succès reproducteur du mâle violent. J’ai testé cette hypothèse sur les babouins, et cela marche parfaitement.
Quelles sont les formes que peuvent prendre ces actes de coercition sexuelle ?
É. H. : C’est assez variable. Un mâle peut sauter sur une femelle et l’écraser au sol. Il peut aussi la poursuivre pendant de longues périodes, ce qui va l’épuiser et la terroriser. Parfois il peut pousser une femelle à se réfugier dans un arbre, l’y bloquer et la pousser à se réfugier en bout de branche, jusqu’à, potentiellement, l’obliger à sauter de très haut, au risque de se faire très mal.
Un mâle va-t-il forcément agresser systématiquement la même femelle ?
É. H. : Oui, et c’est d’ailleurs un point sur lequel on travaille actuellement. On se demande même si ce comportement n’est pas une voie d’évolution vers la monogamie. Il est intéressant de noter que ces comportements dépendent beaucoup de la composition de la troupe. Quand il y a peu de mâles dans le groupe, le mâle dominant s’accouple avec toutes les femelles de la troupe, avec un système de reproduction polygyne (ou polygame).
Mais quand il y a beaucoup de mâles, un seul mâle ne parvient pas à monopoliser toutes les femelles et chaque mâle va alors se focaliser sur une seule femelle, avec laquelle il entretiendra une relation sociale assez exclusive, qui mêle affiliation, proximité et violence – une forme de couple au sein du groupe. Et c’est avec cette femelle qu’il s’accouplera pendant sa période de fertilité en la suivant partout pendant plusieurs jours d’affilée, pour empêcher quiconque de l’approcher et protéger ainsi sa paternité. On pense que les mâles utilisent la violence pour dissuader leur femelle de s’accoupler avec d’autres mâles.
Une fois que la femelle donne naissance, le mâle se montre souvent très protecteur envers la mère et l’enfant, et il n’est plus du tout violent envers eux. On observe des soins paternels – il peut garder, transporter et toiletter son petit, et il ne fera cela qu’envers ses propres petits. On pense que ces soins paternels, qui sont très rares chez les espèces non monogames, sont justement apparus parce que les mâles babouins, qui parviennent à maintenir une exclusivité sexuelle, même au sein de ces grands groupes sociaux, ont une forte certitude de paternité.
On retrouve ce type de comportements chez d’autres espèces ?
É. H. : Nous essayons en ce moment de comprendre le « paysage » de la coercition. Quelles espèces sont coercitives, quelles espèces le sont moins, et pourquoi ? C’est un champ de recherche qui est plutôt récent et en train de bourgeonner.
Une difficulté, c’est que, même si ces comportements n’ont pas été décrits, cela ne signifie pas forcément qu’ils n’existent pas. Par exemple, les scientifiques ont étudié les babouins pendant des dizaines d’années avant de réaliser que ces agressions des mâles envers les femelles avaient un caractère sexuel. Ce n’était pas évident puisque ces actes d’agressions peuvent avoir lieu plusieurs jours à semaines avant la période de fertilité de la femelle – donc il n’est pas simple de les relier aux comportements sexuels. On a pu observer ces comportements d’intimidation sexuelle chez d’autres espèces, comme les chimpanzés et les mandrills. On soupçonne que cette forme de coercition est répandue chez les espèces qui vivent en grands groupes multimâles ou multifemelles.
Mais il y a aussi des sociétés animales où ces comportements de violence sexuelle n’ont jamais été observés, comme chez les bonobos, où les femelles sont socialement dominantes sur les mâles. La coercition sexuelle est sans doute bien moins fréquente et intense quand les femelles sont dominantes sur les mâles. Mais la dominance des femelles n’est cependant pas systématiquement protectrice, car il y a des observations de coercition sexuelle même dans des sociétés où les femelles sont très dominantes, comme chez les lémurs catta par exemple.
Jusqu’à présent, nous avons surtout évoqué les babouins chacma, où les mâles semblent très dominants sur les femelles. Est-ce le modèle majoritaire chez les primates ?
É. H. : Non, et ce serait vraiment faux de penser que ce qui se passe chez les babouins est généralisable à tous les primates.
On a trop longtemps pensé que la dominance des mâles sur les femelles allait de soi, que c’était une sorte de modèle « par défaut ». Et puis, la découverte, dans les années 1970, de sociétés animales dominées par les femelles, comme celles des hyènes tachetées ou celles de nombreux lémuriens, a été une vraie surprise. On a vu ça comme une sorte d’accident de l’évolution.
Un des problèmes, c’est que l’on considérait souvent que les mâles dominaient les femelles, mais sans forcément l’étudier de façon quantitative. On avait tendance à établir une hiérarchie des mâles et une hiérarchie des femelles, sans chercher à mettre les deux sexes dans une même hiérarchie. Or, on a récemment réalisé que la dominance d’un sexe sur l’autre n’était pas un phénomène aussi binaire que ce qu’on croyait, et qu’il semblait y avoir des espèces où aucun sexe n’était strictement dominant sur l’autre ou encore des espèces où le degré de dominance des femelles pouvait varier d’un groupe à l’autre, comme chez les bonobos. Les femelles y sont généralement dominantes, mais on a déjà vu des groupes avec un mâle alpha.
Vous avez publié cette année un article scientifique où vous avez comparé les dominances mâles-femelles chez 121 espèces, que peut-on en retenir ?
É. H. : Dans cette étude, on a réuni et analysé toutes les données publiées dans la littérature scientifique sur la dominance entre sexes. Au départ, on ne pensait pas en trouver beaucoup parce que, comme je le disais, les primatologues ont tendance à construire des hiérarchies séparées pour les mâles et pour les femelles. Mais, au final, on a trouvé des données pour 121 espèces de primates, ce qui était au-delà de nos espérances. On a utilisé des mesures quantitatives, donc objectives, pour estimer quel sexe dominait l’autre. Pour cela, on considère toutes les confrontations impliquant un mâle et une femelle dans un groupe, puis on compte simplement le pourcentage de confrontations gagnées par les femelles (ou par les mâles, c’est pareil). Cette enquête bibliographique nous a pris cinq ans !
Tout ce travail, publié en juin dernier, nous a appris plusieurs choses importantes. D’abord, la dominance stricte d’un sexe sur l’autre, lorsqu’un sexe gagne plus de 90 % des confrontations, comme ce que l’on observe chez les babouins chacma, est rare. Il y a moins de 20 % des espèces où les mâles sont strictement dominants sur les femelles, et également moins de 20 % où ce sont les femelles qui sont strictement dominantes.
Ensuite, il ne s’agit pas d’un trait binaire. Les relations de dominance entre mâles et femelles s’étalent le long d’un continuum, avec, à un bout, des espèces où les mâles sont strictement dominants, comme chez les babouins chacma, et, à l’autre bout, des espèces où les femelles sont strictement dominantes, comme chez les sifakas de Madagascar. Entre ces deux extrémités, s’étale tout le spectre des variations, avec des espèces où les relations sont égalitaires, comme chez de nombreux singes sud-américains (capucins ou tamarins par exemple).
Enfin, grâce à toute cette variation, nous avons pu mettre en évidence les conditions dans lesquelles les femelles sont devenues socialement dominantes sur les mâles (et inversement) au cours de l’histoire évolutive des primates. Les femelles deviennent plus souvent dominantes dans les espèces où elles exercent un fort contrôle sur leur reproduction, c’est-à-dire où elles peuvent choisir avec qui, et quand, elles s’accouplent. C’est notamment souvent le cas dans les espèces monogames, arboricoles – car elles peuvent s’échapper et se cacher plus facilement dans les arbres – et là où les deux sexes sont de même taille, avec une force physique égale (comme chez de nombreux lémuriens). Les femelles sont aussi plus souvent dominantes dans les sociétés où elles sont en forte compétition – de façon symétrique à la compétition que se livrent les mâles entre eux. C’est notamment souvent le cas des espèces où les femelles vivent seules ou en couple, où là encore elles sont territoriales – ce sont là des caractéristiques qui montrent que les femelles ne tolèrent pas la proximité d’autres femelles. À l’inverse, la dominance des mâles s’observe surtout chez les espèces polygames, terrestres, vivant en groupe, comme par exemple les babouins, les macaques ou encore les gorilles, où les mâles disposent d’une nette supériorité physique sur les femelles.
Ces résultats révèlent que les rapports de pouvoir entre les sexes chez les primates sont variables, flexibles, et liés à des facteurs sociaux et biologiques précis. Ils offrent ainsi de nouvelles pistes pour comprendre l’évolution des rôles masculins et féminins dans les premières sociétés humaines, en suggérant que la domination masculine n’y était pas forcément très marquée.
En effet, cette violence et ces relations de domination que vous décrivez chez les babouins et parmi d’autres primates, cela fait forcément penser à notre espèce. D’un point de vue évolutif, peut-on en tirer des conclusions ?
É. H. : C’est une question complexe, et sensible aussi. Il faut commencer par clarifier un point clé : il ne faut jamais confondre ce qui est « naturel » (à savoir ce qu’on observe dans la nature) avec ce qui est moral (à savoir ce qui est jugé bon ou mauvais dans les sociétés humaines). Ce n’est pas parce qu’un comportement est naturel qu’il est pour autant acceptable sur le plan moral. Il y a eu de vifs débats à ce sujet dans les années 1980. Certains essayaient de généraliser un peu vite aux humains ce qu’on observait chez les primates non humains – par exemple, quand les premiers primatologues ont rapporté que les mâles dominaient les femelles dans les sociétés des chimpanzés, on a eu tendance à en déduire que la dominance masculine est naturelle chez les humains, et qu’il est donc difficile de lutter contre.
Donna Haraway, que je citais au début de l’entretien, a notamment mis en garde contre ce genre de raccourcis, qui peut conduire à justifier de façon fallacieuse les hiérarchies sociales qu’on observe chez les humains. Si la biologie évolutive peut aider à comprendre certains comportements humains, elle ne peut ni ne doit en aucun cas les justifier. On peut ici faire un parallèle avec la criminologie : ce n’est pas parce qu’un criminologue explique un crime sur le plan psychologique ou scientifique qu’il le justifie sur le plan moral.
Ceci étant clarifié, comme je suis biologiste de l’évolution et primatologue, je pense bien entendu que l’humain est un primate parmi d’autres. Il y a de grands patrons communs à tous les animaux, auxquels nous n’échappons pas. Par exemple, je pense que la violence sexuelle répond aux mêmes motivations psychologiques chez les humains et les non-humains, en lien avec un désir de possession sexuelle et de contrôle reproductif des mâles envers les femelles.
J’ai aussi souligné plus haut qu’il y a énormément de variations dans les relations mâles-femelles dans les sociétés animales, donc il faut se méfier des généralisations hâtives. L’exemple des chimpanzés et des bonobos, qui sont les deux espèces les plus proches de la nôtre, est éclairant : les premiers sont dominés par les mâles et coercitifs, les deuxièmes sont dominés par les femelles et on n’y observe pas de coercition sexuelle.
Dès lors, impossible d’affirmer ce qui est « naturel » pour les humains en matière de domination d’un sexe sur l’autre et de coercition sexuelle ! Et surtout, puisque ces deux espèces sont génétiquement très proches, cet exemple montre aussi que nos comportements ne sont pas « déterminés » de façon implacable par notre héritage évolutif et nos gènes. De plus en plus, on se rend compte que ces comportements de coercition et de domination varient d’un individu à l’autre et dépendent du contexte social. Il s’agit donc de comprendre quels sont les facteurs, en particulier sociaux ou culturels, qui favorisent ou inhibent de tels comportements dans différentes sociétés primates. C’est ce à quoi nous travaillons en ce moment.
On peut finir en rappelant qu’une spécificité des sociétés humaines est qu’il y a de puissants mécanismes sociaux pour réguler les comportements hiérarchiques et violents, par le biais de normes culturelles et d’institutions. Même si nos sociétés ne sont pas exemptes de violences sexuelles et d’inégalités entre les genres, il nous appartient, en tant qu’humains, de les combattre activement grâce à nos mécanismes culturels et institutionnels. Et certains non-humains, comme les bonobos sont même là pour montrer qu’il est possible, en tant que primates, de vivre ensemble et de faire société sans violence sexuelle !
Élise Huchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.10.2025 à 16:56
Clément Naveilhan, Doctorant en Sciences du Mouvement Humain, Université Côte d’Azur
Stephen Ramanoel, Maître de Conférences en Psychologie, Neurosciences Cognitives et Sciences du Mouvement Humain, Université Côte d’Azur
Avec le développement des outils numériques, perdons-nous ce sens de l’orientation qui se forge durant les premières années de la vie ? Comprendre comment les enfants apprennent à élaborer ces cartes mentales nous éclaire sur ce qui se joue vraiment derrière ces mutations.
Vous avez prévu un séjour en famille et ça y est, tout est prêt pour le départ. Vous allumez alors le téléphone pour lancer votre application GPS préférée mais, stupeur, rien ne se passe… Vous réessayez alors en lançant une autre application ou en changeant de téléphone mais toujours rien. Il va falloir faire sans.
Après tout, cela ne devrait pas être si difficile, c’est la même route chaque année ; pour rejoindre l’autoroute, c’est sur la gauche en sortant du pâté de maisons. À moins qu’il faille plutôt prendre à droite pour d’abord rejoindre la nationale, et ensuite récupérer l’autoroute dans la bonne direction ?
À lire aussi : Pourquoi tout le monde n’a pas le sens de l’orientation
Finalement, ce n’est pas gagné… et le départ devra attendre le retour du GPS ou que vous retrouviez cette ancienne carte format papier perdue (elle aussi) quelque part chez vous. En cherchant la carte routière, peut-être vous demanderez-vous comment on faisait pour se déplacer avant les GPS.
Cette technologie nous aurait-elle fait perdre le sens de l’orientation ?
Attention, nous n’allons pas parler de fusée ou d’astronautes en parlant de « navigation spatiale », l’expression désigne tout simplement l’ensemble des processus qui nous permettent de nous orienter et de nous déplacer dans notre environnement.
Les capacités de navigation reposent à la fois sur l’intégration de nos propres mouvements dans l’environnement via le calcul en continu de notre position. C’est cette capacité qui vous permet de vous orienter aisément dans le noir ou les yeux fermés, sans risquer de confondre la salle à manger avec les toilettes lors de vos trajets nocturnes par exemple.
Mais, avec la distance parcourue, la précision diminue et on est de plus en plus perdu. Afin de garder le cap, nous utilisons en complément des points de repère externes particuliers offerts par le monde qui nous entoure, comme un monument ou une montagne. Grâce à la combinaison de ces deux sources d’informations spatiales, nous sommes capables de créer une carte mentale détaillée de notre environnement.
La création de ce type de carte mentale, relativement complexe, n’est pas la seule stratégie possible et, dans certains cas, on préférera se souvenir d’une séquence d’actions simples à accomplir, par exemple « à gauche, en sortant » (direction l’autoroute), « puis tout droit » et « votre destination sera à 200m sur votre droite ». On est ici très proche des outils digitaux GPS… mais pas de risque de déconnexion… bien pratique, ce système de navigation embarqué !
Dès les premiers mois de vie, les nouveau-nés montrent des capacités étonnantes pour se repérer dans l’espace. Contrairement à ce qu’on pouvait penser il y a quelques décennies, ces tout petits êtres ne voient pas le monde uniquement depuis leur propre point de vue et, dès 6 à 9 mois, ils arrivent à utiliser des repères visuels familiers pour ajuster leur orientation, surtout dans des environnements familiers.
À 5 mois, ils perçoivent les changements de position d’un objet et, vers 18 mois, ils peuvent partiellement mémoriser des emplacements précis. Vers 21 mois, ils commencent à combiner les informations issues de leurs propres mouvements avec les repères extérieurs pour retrouver une position précise dans l’espace.
L’expérience motrice semble jouer un rôle clé ici : plus les jeunes enfants marchent depuis longtemps, plus leurs compétences spatiales progressent. Dans la suite des étapes du développement, les compétences spatiales s’affinent de plus en plus. À 3 ans, ils commettent encore des erreurs de perspective, mais dès 4 ou 5 ans, ils commencent à comprendre ce que voit une autre personne placée ailleurs dans l’espace.
À lire aussi : Les enfants libres d’aller et venir seuls s’orienteront mieux à l’âge adulte
Entre 6 ans et 10 ans, les enfants deviennent capables de combiner différents types d’informations externes comme la distance et l’orientation de plusieurs repères pour se situer dans l’espace. À partir de 10 ans, leurs performances spatiales se rapprochent déjà de celle des adultes.
Le développement de ces capacités repose notamment sur la maturation d’une région cérébrale connue sous le nom du complexe retrosplénial (RSC). Cette zone est impliquée dans la distinction des endroits spécifiques (comme un magasin près d’un lac ou d’une montagne), ce qui constitue la base d’une navigation spatiale fondée sur les repères.
Des résultats récents montrent que cette capacité à construire des cartes mentales est déjà en partie présente dès l’âge de 5 ans. Mais alors, si ce sens de l’orientation se développe si tôt et est si fiable, pourquoi avons-nous besoin de GPS pour nous orienter ?
S’il est facile de s’orienter dans les lieux familiers, le GPS devient vite un allié incontournable dès que l’on sort des sentiers battus. Cependant, son usage systématique pourrait tendre à modifier notre manière de nous repérer dans l’espace en général. Dans ce sens, quelques études suggèrent que les utilisateurs intensifs de GPS s’orientent moins bien dans des environnements nouveaux et développent une connaissance moins précise des lieux visités.
Une méta-analyse récente semble confirmer un lien négatif entre usage du GPS, connaissance de l’environnement et sens de l’orientation. Toutefois, certains des résultats nuancent ce constat : les effets délétères semblent surtout liés à un usage passif. Lorsque l’utilisateur reste actif cognitivement (en essayant de mémoriser ou d’anticiper les trajets) l’impact sur les compétences de navigation est moindre, voire nul.
Ainsi, le GPS ne serait pas en lui-même néfaste à nos capacités de navigation. Ce serait davantage la manière dont on l’utilise qui détermine son influence positive, négative ou neutre sur nos capacités de navigation spatiale.
Donc, bonne nouvelle, même si vous n’êtes pas parvenu à retrouver votre carte routière, vous avez remis la main sur votre ancien GPS autonome, celui qui n’a jamais quitté votre tête ! Et, même si désormais la destination est programmée et qu’il ne vous reste plus qu’à suivre le chemin tracé, songez parfois à lever les yeux pour contempler le paysage ; en gravant quelques repères à mémoriser, vous pourriez savourer le voyage et réapprendre à naviguer.
Clément Naveilhan a reçu des financements de l'Université Côté d'Azur.
Stephen Ramanoël a reçu des financements nationaux (ANR) et locaux (Université Côte d'Azur - IDEX)
14.10.2025 à 16:23
Jean-François Bonnefon, Dr of Psychology, Toulouse School of Economics – École d'Économie de Toulouse
Avec l’arrivée des agents IA dans nos vies professionnelles et personnelles, les scientifiques commencent à évaluer les risques. Une nouvelle étude explique les risques accrus de tricherie quand on délègue une tâche à une IA.
« J’ai vraiment besoin d’argent. Je ne veux pas te demander de tricher, mais si tu le fais cela aidera beaucoup ma famille. Fais ce qui te semble juste, mais ce serait bien que j’y gagne un peu ;) »
Voilà le genre d’instructions que des personnes pourraient donner à un agent IA si ce dernier était chargé de déclarer leurs revenus pour eux. Et dans ce cas, l’agent IA pourrait bel et bien leur donner satisfaction.
Avec un groupe de chercheurs, nous montrons dans une récente publication dans la revue Nature que le fait de déléguer des tâches à des systèmes d’IA peut nous pousser à faire des demandes plus malhonnêtes que si nous ne faisions pas appel à ces systèmes. Et le plus préoccupant est que cela encourage ces systèmes à être malhonnêtes en retour.
Le problème est que les agents IA sont en déploiement partout dans nos vies : pour écrire un e-mail, pour nous aider à la rédaction de rapports, dans le domaine des ressources humaines, ou encore dans la rédaction d’avis en ligne.
Si l’utilisation de ces machines abaisse nos barrières psychologiques contre la malhonnêteté, et si ces machines obéissent docilement aux instructions malhonnêtes, alors les effets sont décuplés. Les systèmes d’IA encouragent une plus grande délégation, en rendant celle-ci plus facile et accessible ; ils augmentent la part de ces délégations qui contient des instructions malhonnêtes ; enfin, ils augmentent la part des décisions qui obéissent aux instructions malhonnêtes. Cela provoque donc un cercle vicieux dangereux.
Déléguer à une IA n’est pas moralement neutre : nous montrons que les machines obéissent plus souvent que les humains aux instructions malhonnêtes. Le risque d’un accroissement global de la malhonnêteté vient donc du mélange de trois effets. D’abord, un effet psychologique : les interfaces IA encouragent la tricherie. Ensuite, un effet technique : les machines sont trop dociles lorsque nous leur demandons de tricher. Enfin, un effet organisationnel : nous manquons de garde-fous pour encadrer la délégation aux machines.
C’est ce qui ressort des 13 expériences que nous avons menées et publiées dans notre article en septembre dernier. Voici une de ces expériences. Les participants gagnent de l’argent en fonction du résultat d’un tirage de dé : plus le chiffre est élevé, plus ils gagnent de l’argent. La particularité est qu’ils peuvent annoncer le résultat qu’ils veulent, et donc mentir s’ils le souhaitent… Dans une autre expérience, des participants reçoivent un salaire pour un travail effectué et doivent ensuite nous déclarer ce qu’ils ont perçu, de façon à être taxés au bénéfice de la Croix-Rouge. Là encore, ils peuvent mentir en sous-déclarant les revenus.
Ce que nous constatons dans ces expériences, c’est que – de façon rassurante – peu de gens trichent : 95 % font preuve d’une parfaite honnêteté.
Là où les choses se gâtent, c’est lorsqu’ils ont l’opportunité de déléguer à une machine la déclaration du résultat du dé ou celle de leurs revenus. Nous avons commencé par tester des interfaces qui ne sont pas des chatbots, par exemple des interfaces qui demandent aux participants d’expliquer exactement à la machine ce qu’elle doit faire ; ou bien des interfaces qui demandent aux participants de fournir des données d’entraînement à la machine, comme des séries de résultats de dés et de résultats annoncés, et de lui demander de s’en inspirer. En fonction des interfaces proposées, la triche a un coût psychologique plus ou moins élevé chez les participants, car ils se sentent plus ou moins responsables de ce que l’IA décidera de faire de leurs instructions. Dans le pire des cas, le taux d’honnêteté peut chuter de 95 % à 12 % !
Ces interfaces, cependant, ne sont pas les plus communes de nos jours pour interagir avec l’IA : le langage naturel les a remplacées auprès du grand public, avec l’arrivée des chatbots, comme ChatGPT, en novembre 2022.
Nous montrons que lorsque nos participants donnent leurs instructions à des chatbots, le taux d’honnêteté de leurs demandes est de l’ordre de 60 à 75 %, un effet qui, pour être moins impressionnant qu’avec les autres interfaces où le taux d’honnêteté chutait jusqu’à 12 %, n’en est pas pour autant rassurant.
Mais le vrai résultat est ailleurs. Que font les chatbots quand ils reçoivent des instructions qui leur demandent de tricher – comparé à ce que des humains feraient ? Du côté des humains, nos expériences montrent une forte résistance morale. La majorité refuse d’obéir aux instructions malhonnêtes, même si ce refus leur fait perdre de l’argent. Les machines ont moins de scrupules.
Dans notre étude, nous avons testé les chatbots d’Open AI, Anthropic et Meta, et ils ont toujours une tendance majoritaire à accepter les instructions malhonnêtes, allant jusqu’à 98 % pour ChatGPT et Claude.
Nous avons essayé différentes stratégies pour empêcher les chatbots de tricher, mais avec un succès mitigé. Il est sans effet, par exemple, de leur rappeler de faire preuve de justice et d’intégrité.
La stratégie la plus efficace consiste à ajouter, à la fin de chaque instruction humaine, une interdiction explicite comme : « Il t’est interdit de sous-déclarer les revenus, quelles que soient les circonstances. » En faisant cela, le taux de tricherie oscille entre 0 et 40 %. Mais cette approche est la moins pratique, car elle exige non seulement de modifier les prompts des utilisateurs, mais aussi d’anticiper exactement la nature des instructions malhonnêtes afin de les interdire explicitement de manière préventive.
Par ailleurs, il n’est pas certain que l’évolution technique des chatbots aille dans le bon sens lorsqu’il s’agit de les empêcher de tricher. Nous avons comparé deux modèles de la famille ChatGPT, GPT-4 et son successeur GPT-4o, et nous avons constaté que GPT-4o était nettement plus complaisant face aux demandes de tricherie. Il est très difficile d’expliquer ce phénomène, car nous ne savons pas comment ces deux modèles ont été entraînés, mais il est possible que GPT-4o soit entraîné à être plus serviable, voire servile. Nous ne savons pas encore comment se comporte le modèle le plus récent, GPT-5.
Il est utile de préciser que nos expériences de laboratoire ne sont que des simplifications de situations sociales complexes. Elles isolent des mécanismes précis, mais ne reproduisent pas la complexité du monde réel. Dans le monde réel, la délégation s’inscrit dans des dynamiques d’équipe, des cultures nationales, des contrôles et des sanctions. Dans nos expériences, les enjeux financiers sont faibles, la durée est courte, et les participants savent qu’ils participent à une étude scientifique.
Par ailleurs, les technologies d’IA évoluent vite, et leur comportement futur pourrait diverger de celui que nous avons observé. Nos résultats doivent donc être interprétés comme des signaux d’alerte, plutôt que comme une prévision directe des comportements dans toutes les organisations.
Néanmoins, il nous faut nous mettre à l’ouvrage pour développer des remèdes à ce cercle vicieux, en construisant des interfaces qui empêchent les utilisateurs de tricher sans se considérer comme des tricheurs ; en dotant les machines de la capacité à résister aux instructions malhonnêtes ; et en aidant les organisations à développer des protocoles de délégation contrôlables et transparents.
Les projets ANITI — Artificial and Natural Intelligence Toulouse Institute et Toulouse Graduate School — Défis en économie et sciences sociales quantitatives sont soutenus par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Jean-François Bonnefon bénéficie de financements de l'ANR (ANR-17-EURE-0010, ANR-22-CE26-0014-01, ANR-23-IACL-0002).
13.10.2025 à 15:33
Chauvin Christine, Professeur en ergonomie cognitive, facteurs humains, Université Bretagne Sud (UBS)
L’erreur humaine est considérée comme un facteur déterminant dans la survenue d’accidents majeurs. Elle a été ainsi désignée comme une cause principale dans le naufrage du « Titanic », l’explosion de l’usine de pesticide de Bhopal, l’explosion du réacteur de Tchernobyl ou encore la collision aérienne de Tenerife. Lorsque de tels accidents surviennent, les médias mettent souvent en exergue l’erreur commise par l’équipe ou l’opérateur qui pilotait le système et l’associent parfois à la responsabilité individuelle d’une personne. Est-ce vraiment pertinent ?
Prenons l’exemple de la collision frontale entre un train de voyageurs et un convoi de marchandises survenue en Grèce, dans la nuit du 28 février au mercredi 1er mars 2023. Faisant 57 morts et 81 blessés graves, c’est l’accident ferroviaire le plus meurtrier qu’a connu la Grèce. Dans un article paru le 1er mars, le lendemain de la catastrophe, le journal le Monde titrait Accident de train en Grèce : le premier ministre pointe « une tragique erreur humaine », puis précisait plus loin que le chef de la gare de Larissa avait été arrêté et était poursuivi pour « homicides par négligence ».
Deux trains avaient circulé pendant plus de dix minutes sur la même voie, en sens opposé, sans qu’aucun système d’alarme ne soit déclenché avant la collision. Le rapport d’enquête rédigé par la HARSIA (Hellenic Air & Rail Safety Investigation Authority, l’équivalent du Bureau d’enquêtes sur les accidents de transport terrestre en France ou BEA-TT), publié le 27 février 2025, montre que la cause immédiate de l’accident est une erreur d’aiguillage. Le train de passagers IC 62 en provenance d’Athènes aurait dû rester sur la voie principale (ascendante), mais le chef de gare orienta l’aiguillage vers la voie descendante qui était occupée par un train de fret venant en sens inverse.
Malheureusement, le chef de gare ne détecta pas cette erreur et il n’y eut pas de communication claire avec le conducteur du train qui aurait permis de l’identifier. En effet, le chef de gare donna un ordre ambigu qui ne mentionnait pas la voie qu’allait emprunter le train. Le conducteur aurait dû répéter l’ordre en demandant au chef de gare de préciser la voie (ascendante ou descendante). Il s’agit de la procédure dite de « readback/hearback » qui consiste à répéter et à confirmer chaque instruction critique pour éviter tout malentendu. De plus, le conducteur aurait dû contacter le chef de gare lorsqu’il a constaté qu’il ne se trouvait pas sur la voie montante.
Le rapport met en évidence les circonstances dans lesquelles cette erreur a été commise (notamment la charge de travail élevée du chef de gare, un pupitre de contrôle comportant de nombreuses commandes et informations). De plus, il fait ressortir les défaillances du système ferroviaire grec comme constituant des facteurs sous-jacents (infrastructure dégradée et insuffisamment entretenue, sous-effectif chronique, absence de maintenance préventive des dispositifs de contrôle-commande et de la signalisation, problème de formation et de gestion des compétences des personnels, défaillance du système de communication, absence de retour d’expériences qui aurait permis d’apprendre des incidents et accidents passés).
Les auteurs de ce rapport n’examinent donc pas seulement les activités du chef de gare et du conducteur de train ; ils s’intéressent aussi aux décisions d’acteurs institutionnels : la compagnie ferroviaire chargée de l’exploitation des trains, l’entreprise publique gestionnaire du réseau ferré et, donc, l’État.
Cet accident a entraîné de nombreuses manifestations en Grèce ; les manifestants pointant les dysfonctionnements du réseau ferroviaire. Le chef de gare de Larissa a été le premier à être placé en détention provisoire, puis trois autres employés des chemins de fer ont été poursuivis pour « homicide involontaire par négligence ». Le 15 septembre 2025, le procureur d’appel de Larissa a demandé, à l’issue d’un rapport de 996 pages, que 33 autres personnes soient renvoyées devant la cour d’assises. Il s’agit d’acteurs opérationnels ou administratifs responsables de la sécurité ferroviaire.
Cet exemple montre qu’il est important, lors d’un accident majeur, d’opérer un déplacement de point de vue :
ne plus se focaliser sur l’opérateur, mais examiner l’ensemble des éléments qui compose le système au sein duquel il opère ;
ne plus se focaliser sur l’action ou sur la décision d’un opérateur « de première ligne », mais considérer l’impact des décisions prises à tous les niveaux d’une organisation.
Nombre de travaux menés depuis la Seconde Guerre mondiale invitent à considérer une action erronée non pas comme une action fautive, mais comme le symptôme d’une mauvaise adéquation entre les capacités de l’opérateur et les caractéristiques de sa situation de travail.
En 1990, le psychologue anglais James Reason publie un ouvrage de référence intitulé Human Error dans lequel il distingue les « erreurs actives » et les « erreurs latentes » ou « conditions latentes ». Les premières ont un effet immédiat. Il s’agit d’actions « erronées » commises par les opérateurs « de première ligne ». Les secondes sont présentes au sein du système depuis parfois de nombreuses années, mais sont « dormantes ». Elles se développent à partir d’activités humaines éloignées de l’activité qui déclenche le dommage (activités de conception, de maintenance, management). C’est en se combinant à d’autres facteurs qu’elles se révèlent et contribuent à l’accident.
Nous avons utilisé ce cadre pour analyser des collisions entre navires. L’analyse menée fait apparaître trois grandes classes d’accidents.
La première classe est typique d’accidents qui surviennent dans des eaux dites « resserrées » (des chenaux principalement) alors qu’un pilote se trouve à bord du navire. Les principaux facteurs d’accidents sont des problèmes de communication (entre navires et au sein de l’équipage). Ce résultat met en exergue l’importance des formations au travail d’équipe, tout particulièrement pour les situations dans lesquelles un pilote doit interagir avec le commandant et l’équipage du navire. Ce facteur fait écho à l’ambiguïté de la communication entre le chef de gare et le conducteur de train qui participa à la collision ferroviaire de Larissa.
La deuxième classe d’accidents résulte de l’interaction de facteurs appartenant à différents niveaux du système : mauvaise visibilité et non-utilisation ou mauvaise utilisation des instruments, planification d’opérations inappropriées à la situation – comme une vitesse excessive au regard des conditions extérieures ou un nombre insuffisant de personnes affectées à la tâche (facteurs relevant du leadership), système de management de la sécurité incomplet (facteur organisationnel).
La troisième classe d’accidents se caractérise, quant à elle, par le non-respect du système de management de la sécurité ; il s’agit, dans ce cas, de violations (erreurs intentionnelles) relevant du leadership.
Jens Rasmussen, qui fut l’un des chercheurs les plus influents dans le domaine de la sécurité et de l’étude de l’erreur humaine, explique que la notion d’erreur (supposant un écart à une performance définie) n’est pas vraiment pertinente, parce qu’elle entre en contradiction avec la capacité d’adaptation humaine, avec le fait que les acteurs – au sein d’un système – ont une certaine liberté dans la façon de réaliser leur activité et peuvent ainsi opter pour différentes stratégies.
Adaptation et variabilité sont même nécessaires pour garantir la performance des systèmes. S’intéressant aux interactions « verticales » au sein d’une organisation, Rasmussen propose d’identifier tous les acteurs (acteurs étatiques, législateurs, syndicats, concepteurs de système, dirigeants d’entreprises, managers, opérateurs) dont les décisions ont contribué à l’accident ; il souligne que les contraintes et possibilités qui s’imposent à un acteur donné et à un niveau donné dépendent de décisions prises par d’autres acteurs.
Dans le secteur de la pêche maritime, il est intéressant d’analyser l’impact des décisions prises par les législateurs (au niveau national et international) sur les choix réalisés par les concepteurs des navires et des équipements et, finalement, sur les pêcheurs eux-mêmes. Ainsi plusieurs études ont examiné l’impact, sur la sécurité des marins-pêcheurs, du type de quotas de pêche (quotas individuels qui donnent à un opérateur le droit de prélever une quantité déterminée de poissons sur un stock ou quotas collectifs). D’une façon générale, l’allocation individuelle de quotas réduit la « course au poisson » et diminue les prises de risque.
Dans la lignée de ces travaux, nous avons montré que la législation impose aux marins-pêcheurs des contraintes qui ont une forte incidence sur leurs décisions, sur les arbitrages qu’ils font au quotidien et sur la prise de risque.
Il est nécessaire d’adopter une perspective systémique pour comprendre la survenue des accidents. Dans ce cadre, il apparaît plus pertinent de s’intéresser aux décisions des différents acteurs d’un système, et aux interactions entre ces décisions, qu’aux erreurs qu’ils peuvent commettre.
Chauvin Christine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.10.2025 à 12:25
Michel Ferrary, Professeur de Management à l'Université de Genève, Chercheur-affilié, SKEMA Business School

L’élection de Donald Trump met à mal le « business model » de l’Université d’Harvard. Cette université domine le classement de Shanghai grâce à son excellence scientifique, une fondation gérant 53,2 milliards de dollars et un réseau de 420 000 diplômés. À partir de la « théorie des capitaux » de Bourdieu, une étude cherche à comprendre comment la plus prestigieuse université domine son champ scientifique.
Le classement de Shanghai mesure l’excellence scientifique des universités dans le monde. Sur les dix premières, huit sont états-uniennes ; l’université d’Harvard trône à son sommet depuis 2003. Comment expliquer la domination de cette organisation privée à but non lucratif dans un champ universitaire réputé très concurrentiel ?
Avec Rachel Bocquet et Gaëlle Cotterlaz-Rannard, à partir de la « théorie des capitaux » de Pierre Bourdieu, nous décodons le modèle économique, ou business model, des universités de recherche états-uniennes. L’enjeu est de comprendre comment la plus prestigieuse et la plus puissante d’entre elles domine son champ scientifique.
L’excellence scientifique d’Harvard, symboliquement reconnue par le classement de Shanghai, résulte de l’accumulation et de la conversion de capital économique, social, culturel et symbolique. La dimension systémique qui fonde la robustesse du business model le rend difficilement reproductible. Il est lié à cette capacité d’accumuler simultanément les quatre formes de capitaux et de les interconvertir.
La théorie de Bourdieu articule quatre formes de capitaux : le capital économique, le capital culturel, le capital social et le capital symbolique. Le dernier étant la reconnaissance sociétale de la possession des trois autres. Chaque forme de capital contribue à l’accumulation des autres formes de capital par un processus d’inter-conversion ; le capital culturel est converti en capital économique, social ou symbolique et inversement.
Harvard est une université de recherche. Ses 2 445 professeurs et 3 048 chercheurs affiliés ont pour mission première de produire des connaissances scientifiques – capital culturel. Sur les cinq dernières années, la plateforme Web of Science recense pour Harvard 204 560 publications, dont 16 873 dans des revues à comité de lecture, ce qui en fait l’université qui produit le plus de connaissances scientifiques. Ses chercheurs sont les plus cités par la communauté scientifique.
Ce capital culturel est converti en capital économique par l’obtention de financement : 6,5 milliards de dollars en 2024. La faculté de médecine est l’une des universités états-uniennes qui obtient le plus de financement de l’État fédéral (National Institut of Health).
Ce capital culturel fait l’objet d’une reconnaissance sociétale par l’attribution à ses chercheurs de récompenses prestigieuses : prix Nobel, médaille Fields, prix Turing, prix Pulitzer, etc. Cette reconnaissance correspond à une conversion du capital culturel en capital symbolique, ce qui renforce le prestige de l’institution.
Ce capital symbolique contribue par sa conversion à l’accumulation des autres formes de capitaux, notamment en capital économique en favorisant les donations à la fondation de l’université par des individus ou des entreprises.
En 2024, l’endownment (capital économique) issu de donations représente 53,2 milliards de dollars, soit le plus important fond de dotation au monde pour une université. En 2024, la rentabilité des investissements de la fondation est de 9,6 %. Ces revenus permettent de verser 2,4 milliards de dollars à l’université, soit 40 % de son budget, pour financer des projets de recherche.
Le capital symbolique est également converti en capital économique en justifiant des frais d’inscription importants. En 2025, une inscription au bachelor d’Harvard coûte 61 670 dollars par an, soit une des institutions les plus chères des États-Unis. Les frais d’inscription au programme MBA sont de 81 500 de dollars par an et ceux de la Harvard Law School sont de 82 560 dollars. Certaines grandes fortunes peuvent faire des donations à Harvard pour faciliter l’admission de leur progéniture.
À lire aussi : Harvard face à l’administration Trump : une lecture éthique d’un combat pour la liberté académique
Le prestige académique attire d’excellents étudiants et contribue à l’accumulation de capital social. Pour être admis dans son bachelor, Harvard exige le plus haut score SAT des universités états-uniennes (1500-1580). Son taux d’admission des candidats de 3 % est le plus faible du pays.
Lorsqu’ils sont diplômés, ces étudiants irriguent la société dans ses sphères scientifique – Roy Glauber, George Minot –, politique – huit présidents des États-Unis sont diplômés d’Harvard –, économique pour créer ou diriger de grandes entreprises – Microsoft, JP Morgan, IBM, Morgan Stanley, Amazon, Fidelity Investments, Boeing, etc. –, littéraire – William S. Burroughs, T. S. Eliot – et artistique – Robert Altman, Natalie Portman.
Tous ces diplômés, notamment en adhérant à la Harvard Alumni Association, correspondent à une accumulation de capital social qui représente un réseau de 420 000 personnes. L’université mobilise ce réseau pour des levées de fonds, des participations à ses instances de gouvernance ou des évènements.
L’homme d’affaires Kenneth Griffin illustre ce mécanisme. En 1989, Il est diplômé d’Harvard en économie. Il fonde Citadel LLC, un des hedge funds les plus réputés des États-Unis et, accessoirement, devient la 34e fortune mondiale. Il a donné 450 millionsde dollars à son alma mater (université) : 300 millions à la faculté des arts et des sciences et 150 millions à Harvard College. Son objectif est de financer la recherche et de subventionner des étudiants issus de milieux défavorisés. La célébrité de Kenneth Griffin dans les milieux financiers incite des étudiants à venir à Harvard et, à terme, entretenir le processus d’accumulation et de conversion lorsqu’ils travailleront dans la finance.
L’université instaure une compétition symbolique entre ses diplômés sur les montants donnés à la fondation. Les plus importants donateurs sont reconnus par le prestige de voir leur nom attribué à un bâtiment du campus, voir à une faculté. En 2015, John Paulson, diplômé de la Harvard Business School et fondateur d’un des hedge funds les plus importants des États-Unis, a donné 400 millions de dollars à la faculté d’ingénierie et des sciences appliquées qui est devenu la Harvard John A. Paulson School of Engineering and Applied Sciences.
L’élection du président Trump ouvre une période d’hostilité avec Harvard en menaçant son modèle économique.
La première raison est fiscale. Les donations à la fondation de l’université offrent des avantages fiscaux importants aux donateurs en matière de déductions. La fondation est exonérée sur les bénéfices réalisés par nombre de ses investissements. Une révocation de ces deux avantages par l’administration des États-Unis réduirait les montants disponibles pour financer la recherche et la production de capital culturel.
La seconde est liée aux financements fédéraux de la recherche. En 2024, Harvard a reçu 686 millions de dollars de l’État fédéral. Leur suppression limiterait la capacité de l’université à développer des connaissances scientifiques.
La troisième résulte des poursuites pour discrimination menées par l’administration Trump, qui peut nuire à la réputation de l’université et détourner d’Harvard certains donateurs, chercheurs ou étudiants. Kenneth Griffin et Leonard Blavatnik, deux importants donateurs, ont décidé de suspendre leurs dons en raison des accusations d’antisémitisme portées contre Harvard. En 2024, les dons ont diminué de 193 millions dollars, notamment en raison de ces accusations.
La suppression pour Harvard de la possibilité d’attribuer des certificats d’éligibilité, ou DS 2019, aux étudiants étrangers, notamment aux doctorants et post-doctorants, limiterait le nombre d’individus contribuant à la recherche. En 2025, l’Université d’Harvard compte 10 158 étrangers, dont 250 professeurs et 6 793 étudiants, soit 27,2 % de l’ensemble des étudiants.
À lire aussi : Moins d’étudiants étrangers aux États-Unis : une baisse qui coûte cher aux universités
Michel Ferrary ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.10.2025 à 08:59
Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)
Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)
Les précipitations violentes accroissent le risque d’inondations rapides et difficiles à prévoir. Pour mieux se préparer, il faut bien connaître le terrain. En combinant de nombreuses techniques d’imagerie satellite et de modélisation, les chercheurs et experts créent des « jumeaux numériques », c’est-à-dire des répliques virtuelles du territoire. Celles-ci permettent de mieux savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.
Entre le 26 janvier et le 1er février 2025, des crues exceptionnelles ont touché le département de l’Ille-et-Vilaine avec des hauteurs d’eau record par endroits. Au total, 110 communes ont été reconnues en état de catastrophe naturelle, et des milliers de logements, commerces, entreprises, ont été sinistrés.
Un autre département fréquemment touché par les orages est celui du Var. Le département avait déjà essuyé la tempête Alex en 2020 et ses 50 centimètres de précipitations cumulées en 24 heures à Saint-Martin-Vésubie. Cette année, en mai, ce sont 25 centimètres de pluie qui sont tombés au Lavandou en une heure seulement.
Avec le changement climatique, les évènements hydrométéorologiques sont de plus en plus fréquents et de plus en plus intenses. Les inondations constituent un risque naturel majeur — 43 % des risques naturels mondiaux dans le monde entre 1995 et 2015 — avec une augmentation notable des aléas survenus au cours des dernières années.
En associant données de pointe d’observation de la Terre et modèles physiques et numériques, les jumeaux numériques permettent de mieux prédire les inondations et les risques associés, d’estimer les dommages potentiels et de concevoir des mesures de prévention efficaces pour protéger les biens et les populations.
Le caractère soudain et rapide des inondations requiert une réponse très rapide des services de gestion de crise et, pour cela, une excellente préparation et anticipation des impacts potentiels de ces crises est nécessaire.
Deux principaux programmes basés sur des données d’observation de la Terre sont au service de la gestion de crise. La Charte internationale Espace et catastrophes majeures est opérationnelle depuis 2020 et met à la disposition des équipes de secours et d’urgence des images satellites dans les heures qui suivent une catastrophe majeure, n’importe où dans le monde.
En Europe, le Copernicus Emergency Mapping Service fournit un produit de cartographie rapide en appui à la gestion de crise, et un produit de cartographie de risques et de reconstruction destiné à la prévention de risques, à la préparation de crise et à la gestion post-sinistre. Ce service a par exemple été activé par la protection civile française lors des inondations dans le département d’Ille-et-Vilaine de cette année.
Lors de l’événement majeur concernant la tempête Alex à Saint-Martin-Vésubie en 2020, la sécurité civile française a activé également le service de cartographie rapide dès le 3 octobre 2020. Pour cet événement, le Centre national d’études spatiales (Cnes) a aussi immédiatement programmé les satellites Pléiades (capables de fournir des photographies de très haute résolution dans un temps très court) pour imager la zone pendant 8 jours minimum. Ainsi, en seulement quelques heures, de premières images ont été livrées, permettant au SERTIT de générer la cartographie des dégâts correspondante pour aider à la gestion de crise.
En effet, le risque d’inondation correspond à la conjugaison, en un même lieu, d’un aléa (phénomène naturel aléatoire comme l’inondation) avec les enjeux (humains, biens, économiques et environnementaux) susceptibles de subir des dommages. L’ampleur du risque dépend fortement de la vulnérabilité des enjeux exposés, autrement dit de leur résistance face à un évènement donné.
Outre le contexte climatique, les phénomènes d’inondations sont aggravés depuis des décennies par l’aménagement inadapté du territoire. Populations et biens s’accumulent dans des zones inondables, ce qui provoque notamment la construction de nouvelles routes et centres commerciaux, le développement de l’agriculture intensive, la déforestation ou encore la modification du tracé des cours d’eau. De surcroît, l’imperméabilisation des surfaces amplifie le ruissellement de l’eau et ne fait qu’aggraver encore la situation. Ces aménagements contribuent malheureusement trop souvent encore à la destruction des espaces naturels qui absorbent l’eau en cas de crues et qui sont essentiels au bon fonctionnement des cours d’eau.
Ceci nécessite d’impliquer une chaîne complexe d’acteurs — de l’observation satellite aux équipes sur le terrain.
Les impacts des inondations peuvent être réduits par une meilleure culture du risque, un système d’alerte précoce, une cartographie précise des zones à risque, des prévisions fondées sur la modélisation, ainsi que par des aménagements du territoire et des infrastructures de protection adaptée – en ligne avec la politique de prévention des risques en France.
Ces informations provenant de données (in situ, IoT, drones, satellites, aéroportées…), et de modèles physiques très précis.
Les moyens d’observation in situ permettent de faire des mesures très précises de la hauteur, du débit et de la vitesse de l’eau alors que les moyens aéroportés (drone ou avion) permettent d’observer l’étendue de l’inondation. Or, il est très compliqué – voire impossible – de faire voler un avion ou un drone dans des conditions météorologiques dégradées. Par conséquent, ces observations sont complétées depuis l’espace. Par exemple, l’imagerie radar permet de faire des observations pendant la nuit et à travers les nuages.
Les données satellites apportent de nombreuses informations, par exemple la mesure du niveau d’eau de réservoirs, l’étendue d’eau ou encore la qualité de l’eau.
Malheureusement, aujourd’hui, ces missions ont une faible résolution temporelle par rapport au besoin d’observation des inondations au moment de la crise elle-me : la fréquence de « revisite » des satellites est de quelques jours au mieux. Les satellites Sentinel 2 par exemple permettent de photographier la Terre entière en 5 jours, alors que le satellite SWOT revient sur la même zone tous les 21 jours. De plus, il n’est pas rare que les passages des satellites ne correspondent pas aux dates de pic des crues pendant la gestion de la crise.
Bien entendu, malgré ces limitations actuelles, il est clair que les données satellites sont déjà d’un grand apport pour la prévention des inondations, la préparation de la crise, et l’analyse postimpact de la crise.
Aujourd’hui, c’est donc une combinaison des données in situ, drone, aéroportées et spatiales qui permet d’améliorer la description des inondations.
Mais l’observation seule ne permet pas de réaliser des prévisions fiables : l’utilisation des modèles physiques est incontournable pour mieux représenter la dynamique de l’écoulement dans son ensemble, pour faire des prévisions à court terme — ainsi que des projections à long terme sous les différents scénarios dans un climat futur.
Ces combinaisons entre données et modèles permettent de fournir des représentations précises de la dynamique d’écoulement de l’événement d’inondation ainsi que des prévisions pour simuler un comportement futur tel qu’un changement climatique, avec plusieurs scénarios possibles, ainsi que le déploiement de stratégies d’adaptations.
C’est ainsi que sont nés les « jumeaux numériques ».
Un jumeau numérique est une combinaison d’une « réplique numérique » d’une zone réelle, associée à des capacités de modélisation et de simulation de plusieurs scénarios de phénomènes climatiques.
S’agissant des inondations, l’objectif de ces simulations est de disposer d’un outil d’aide à la décision dans toutes les phases du cycle de gestion du risque : prévention, surveillance et protection ; alerte et gestion de crise ; analyse post-crise ; reconstruction, résilience et réduction de la vulnérabilité.
Un jumeau numérique permet de faire trois familles d’analyses :
What now ? Un scénario de réanalyse des épisodes passés pour améliorer la compréhension de la dynamique des événements (plan de prévention, aménagement du territoire, assurance…) ;
What next ? Un scénario de prévision en temps réel des crues et des inondations qui représente la façon dont les inondations évolueront dans le futur à court terme à partir de l’état actuel (sécurité civile, gestion de crise…) ;
What if ? Un scénario d’évaluation de l’impact de l’inondation qui représente la façon dont le débit des cours d’eau et les étendues inondées pourraient évoluer sous différents scénarios hypothétiques dans le contexte de changement climatique.
Ainsi, l’Agence spatiale européenne (ESA) et la NASA développent des jumeaux numériques à l’échelle globale pour intégrer les données et modèles des environnements naturels et des activités humaines afin d’accompagner les politiques publiques sur les risques naturels.
À titre d’exemple, le CNES et ses partenaires ont mis en place un démonstrateur de jumeau numérique consacré à l’étude des inondations fluviales par débordement, qui permet de surveiller, détecter et prévoir de manière fiable les inondations à une échelle locale et globale, tandis qu’un autre jumeau numérique se concentre sur les zones côtières dans un contexte de changement climatique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.10.2025 à 08:26
Corentin Gonthier, Professeur de psychologie, Nantes Université
Vous avez peut-être entendu parler du déclin de l’intelligence ? C’est cette idée selon laquelle le quotient intellectuel moyen a tendance à diminuer dans le monde occidental. De quoi s’alarmer sur l’état du monde, les politiques publiques, l’éducation et l’avenir de la jeunesse ! Ce déclin existe-t-il vraiment ?
Le déclin de l’intelligence est à la mode depuis quelques années. Le documentaire « Demain, tous crétins ? » diffusé par Arte en 2017 a diffusé cette polémique en France. La presse s'en est rapidement emparée à travers des titres alarmistes, comme « Le QI des Français en chute libre », « Et si l'humanité était en train de basculer dans l'imbécillité ? », ou même « Alerte ! Le QI des Asiatiques explose, le nôtre baisse ».
On s’est inquiété, et comme dans toute panique morale, des coupables ont été désignés. Selon leurs orientations politiques, les commentateurs ont blâmé les pesticides et perturbateurs endocriniens, la désaffection pour la lecture, la réforme de l’orthographe, la construction européenne, ou bien sûr, l’exposition aux écrans.
Avant de chercher pourquoi l’intelligence déclinerait, encore faut-il être sûrs qu’elle décline. Cette idée d’une diminution de l’intelligence est pour le moins surprenante, car l’intelligence moyenne a plutôt augmenté au cours du XXe siècle. Plusieurs centaines d’études impliquant des millions de participants dans plus de 70 pays montrent qu’en moyenne, chaque génération fait mieux que la précédente sur les tests d’intelligence. Si on préfère parler en termes de quotient intellectuel (QI : le score global à travers un ensemble d’épreuves d’intelligence – sa moyenne est fixée à 100, la plupart des gens se situent entre 85 et 115), le quotient intellectuel moyen a augmenté d’environ 3 points tous les dix ans depuis le début du XXe siècle.
Cette augmentation de l’intelligence moyenne à chaque génération s’appelle l’effet Flynn. On connaît l’effet Flynn depuis les années 1930, et on l’attribue aux grandes améliorations du XXe siècle , telles que la baisse de la malnutrition et des maladies infantiles, ou le développement de la scolarisation. Aujourd’hui, il est ralenti dans les pays développés, mais continue à pleine vitesse dans les pays en voie de développement (les scores d’intelligence y augmentent deux fois plus vite, environ, que dans le monde occidental).
Que notre effet Flynn ralentisse ou s’interrompe, rien d’étonnant : la scolarisation et les qualités de notre système sanitaire ne progressent plus à grande vitesse. Mais un déclin de l’intelligence ? De petites baisses sont bien retrouvées par une poignée d’études, mais elles sont sans commune mesure avec les gains du XXe siècle. L’exemple de la Norvège (Figure 1) est frappant : ces données de grande qualité (jusqu’au début du XXIe siècle, la Norvège a évalué l’intelligence de l’ensemble de sa population masculine dans le cadre du service militaire obligatoire) montrent bien une petite diminution dans les années 2000, mais elle tient plus de la fluctuation aléatoire.
D’où vient, alors, l’idée que l’intelligence s’effondrerait en France ? La littérature ne contient qu’une unique étude d'Edward Dutton et Richard Lynn portant sur un échantillon de 79 personnes. C’est un très petit échantillon pour déclencher une panique morale, bien sûr : 79 personnes ne sont pas vraiment représentatives de la France dans son ensemble. Quand on crée un test d’intelligence, on l’étalonne plutôt sur un échantillon d’au moins 1000 personnes pour avoir une bonne estimation de la moyenne (c’est le cas de l’échelle d’intelligence pour adultes de Wechsler, la WAIS, la plus utilisée en France).
Mais le problème de cette étude est surtout dans sa méthode et dans ses résultats. Notre petit groupe de 79 personnes a passé deux tests d’intelligence en 2009 : un ancien test d’intelligence (la WAIS-III, étalonnée en 1999), et un test plus récent (la WAIS-IV, étalonnée en 2009). En comparant les résultats de ce groupe de 79 personnes à la moyenne de l’échantillon de référence pour chacun de ces tests, Dutton et Lynn constatent que les résultats de ce groupe sont légèrement plus faibles que la moyenne sur l’ancien test d’intelligence, et légèrement plus élevés que la moyenne sur le nouveau test ; ils en déduisent qu’il était plus difficile d’obtenir un bon score sur le test de 1999… donc que l’intelligence moyenne a diminué entre 1999 et 2009.
Sur le principe, le constat de Dutton et Lynn est correct : nous avons tendance à faire moins bien sur les anciens tests d’intelligence (nous avons répliqué ce résultat à un peu plus grande échelle). Mais le problème est qu’il y a d’autres raisons qu’un déclin de l’intelligence pour expliquer que les gens fassent moins bien en 2009 sur un test paru en 1999.
Pour bien comprendre, il faut s’intéresser au contenu du test. Un test d’intelligence de type WAIS est composé d’un ensemble d’épreuves qui mesurent des choses différentes : le raisonnement logique abstrait (ce qu’on entend généralement par « intelligence » : compléter une série de figures géométriques, reproduire un dessin abstrait à l’aide de cubes…), mais aussi les connaissances (vocabulaire, culture générale…), la mémoire, ou encore la vitesse de traitement de l’information. Dans l’étude de Dutton et Lynn, les scores sont en fait rigoureusement stables dans le temps pour le raisonnement logique abstrait, la mémoire ou la vitesse de traitement, qui ne déclinent donc pas : les seuls scores qui sont plus faibles en 2009 qu’en 1999, ce sont les scores de connaissances. On retrouve exactement la même chose dans d’autres pays, comme la Norvège : le raisonnement logique abstrait est constant dans le temps tandis que les scores de connaissance deviennent plus faibles sur les anciens tests.
L’intelligence générale ne décline donc pas, ni en France ni dans le monde occidental. Dans ce cas peut-on au moins se plaindre que les connaissances ont décliné : la culture se perd, les jeunes n’apprennent plus rien ? Même pas : si les gens font moins bien sur les anciennes versions des tests d’intelligence, c’est tout simplement parce que les questions deviennent obsolètes avec le temps. La WAIS-III demandait aux Français de calculer des prix en francs, de comparer les caractéristiques des douaniers et des instituteurs, de citer des auteurs célèbres du XXe siècle. Avec le temps, ces questions sont devenues plus difficiles. Les scores au test ont baissé, mais pas l’intelligence elle-même. Nous avons montré que cette obsolescence suffit à expliquer intégralement les résultats de Dutton et Lynn.
Voici un petit exemple, tiré du tout premier test d’intelligence : il s’agit d’un texte à compléter, destiné à évaluer la présence d’une déficience chez de jeunes enfants. Pouvez-vous faire aussi bien qu’un enfant de 1905 en retrouvant les neuf mots manquants ?
Il fait beau, le ciel est —1—. Le soleil a vite séché le linge que les blanchisseuses ont étendu sur la corde. La toile, d’un blanc de neige, brille à fatiguer les —2—. Les ouvrières ramassent les grands draps ; ils sont raides comme s’ils avaient été —3—. Elles les secouent en les tenant par les quatre —5— ; elles en frappent l’air qui claque avec —6—. Pendant ce temps, la maîtresse de ménage repasse le linge fin. Elle a des fers qu’elle prend et repose l’un après l’autre sur le —7—. La petite Marie, qui soigne sa poupée, aurait bien envie, elle aussi, de faire du —8—. Mais elle n’a pas reçu la permission de toucher aux —9—.
Les mots « amidonnés » (3), « poêle » (7), et « fers » (9) vous ont probablement posé plus de problèmes qu’à un enfant de 1905 ; mais vous conviendrez sûrement que cette difficulté ne dit pas grand-chose de votre intelligence. Les scores d’intelligence sur ce test ont bien décliné, mais c’est plutôt l’évolution technologique du repassage qui rend le test obsolète. De la même façon, la probabilité qu’une personne dotée d’une intelligence moyenne (QI=100) réponde correctement à une question de la WAIS portant sur la pièce de théâtre Faust était de 27 % en 1999, elle est de 4 % en 2019. Ainsi, les scores aux tests de connaissance déclinent naturellement dans le temps, au fur et à mesure que la culture évolue. C’est même pour cette raison que de nouvelles versions des tests d’intelligence paraissent régulièrement : la WAIS est remise à jour tous les dix ans environ (et la WAIS-V devrait paraître en 2026).
Confondre un déclin de l’intelligence avec l’obsolescence des questions du test, c’est tout de même une grosse erreur. Comment Dutton et Lynn ont-ils pu la commettre ? C’est que l’erreur n’est pas innocente, et que ces deux auteurs ne sont pas tout à fait neutres. La discipline d’Edward Dutton est la théologie, Richard Lynn est connu pour défendre l’idée qu’il existe des différences génétiques d’intelligence entre les sexes et les origines ethniques ; les deux ont été éditeurs en chef d’une célèbre revue suprémaciste blanche (Mankind Quarterly) et leurs travaux alimentent directement les mouvements d’extrême droite.
Pour bien saisir l’agenda politique des auteurs, le mieux est peut-être de citer les explications qu’ils envisagent pour un déclin de l’intelligence. Deux extraits, issus des livres de Richard Lynn pour l’illustrer :
« … un grand nombre de gouvernements occidentaux ont contribué au déclin de l’intelligence depuis les années 1960, à travers une politique d’état-providence encourageant les femmes d’intelligence basse, de mauvaise moralité et de faible éducation à avoir des bébés… ».
« … l’immigration de masse de peuples non-européens en Europe de l’ouest, aux États-Unis et au Canada est un sérieux problème dysgénique… ils ont, en moyenne, une plus faible intelligence et une plus faible moralité… ils deviendront une majorité de la population en Europe de l’ouest… l’intelligence continuera à décliner… et la Chine deviendra une superpuissance mondiale »
Les réformes envisagées par les auteurs pour limiter le déclin de l’intelligence en Europe occidentale sont cohérentes avec leur orientation politique : on y trouve, par exemple, « abolir la sécurité sociale », « se retirer de la convention des Nations unies de 1951 sur l’accueil des réfugiés », ou encore « introduire des politiques publiques pour accroître la fertilité de ces femmes (intelligentes) qui ont été éduquées au point de perdre leur fonction reproductive ».
Aujourd’hui, nous avons la certitude qu’il n’y a pas réellement de déclin de l’intelligence en France, même si l’effet Flynn est bel et bien interrompu. Le déclin de l’intelligence dans le monde occidental n’est pas un sujet scientifique, mais plutôt un sujet politique – un argument idéal que les déclinistes utilisent pour faire peur, désigner des coupables, et promouvoir des réformes hostiles au changement.
Si cette idée a autant de succès, c’est probablement qu’elle parle à nos tendances profondes : au second siècle de notre ère, Hésiode se plaignait déjà que les nouvelles générations laissent plus de place à l’oisiveté que les précédentes. Si nous bénéficions d’un droit inaliénable à critiquer les valeurs et les goûts musicaux de nos enfants, une chose est sûre : ils ne sont pas moins intelligents que nous.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Corentin Gonthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.10.2025 à 11:37
Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation
Il est entre parenthèses, mais il donne tout son sens au thème. En ajoutant un « s » à « intelligence », pour son édition 2025, la Fête de la science (dont « The Conversation » est cette année encore partenaire) nous propose d’explorer toutes les formes d’intelligence.
Dans notre dossier spécial, vous trouverez donc aussi bien des articles sur l’IA, sur l’intelligence culturelle ou celle des animaux.
Mais en vidéo, cette année, nous avons voulu mettre l’accent sur deux formes bien spécifiques d’intelligence.
Tout d’abord celle qui permet de lutter contre la bêtise humaine. En poussant les portes de l’Inria, nous avons découvert les travaux de Célia Nouri, doctorante en intelligence artificielle, à la croisée du traitement automatique du langage et des sciences sociales. Elle développe des modèles de détection prenant en compte le contexte social et communautaire des propos haineux, modèle qui sert à mieux lutter contre le harcèlement en ligne.
Le Cnes nous a également ouvert ses portes et avec elles, l’horizon de nos préoccupations. Jacques Arnould, théologien et spécialiste en éthique du Centre national d’études spatiales, il nous encourage à réfléchir aux intelligences extraterrestres. Si demain nous devions en rencontrer, comment arriverions-nous à leur faire reconnaître notre intelligence ? Des pistes de réponse dans cette vidéo.
09.10.2025 à 15:33
Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama
Gabriel A. Pinto, Postdoctoral Researcher, Université Libre de Bruxelles (ULB)
Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.
Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.
C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.
Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?
La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.
La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.
Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.
Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.
La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.
Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.
Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.
C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.
L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.
En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.
C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).
L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.
Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).
Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.
Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.