29.10.2025 à 12:04
Claudio R. Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours
La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.
Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.
Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.
Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.
Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.
La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.
Une femelle moustique peut survivre plusieurs jours, voire quelques semaines sans piquer, pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.
La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies telles que la fièvre du Nil occidental ou l’encéphalite japonaise.
La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.
Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette sorte de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.
Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP "REPEL".
29.10.2025 à 12:04
Saad Benjelloun, Responsable du département de mathématiques, Pôle Léonard de Vinci
Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.
Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.
Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.
Il existe des méthodes qui permettent de décomposer un signal (une image ou un son, par exemple) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de la peau).
À lire aussi : Des caméras 3D dans nos smartphones : comment numériser notre environnement ?
Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire.
Cette acuité correspond à la faculté de discerner un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !
À lire aussi : Aveugles, malvoyants : que voient-ils ?
Sur une image, cette limite s’appelle la « fréquence de coupure » : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.
Si l’on applique cette logique, la 8K ne devient vraiment utile que si :
l’écran est très grand,
ou que l’on s’assoit très près,
ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).
Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.
Un outil mathématique puissant, la « transformée de Fourier », inventée par Joseph Fourier en 1817, permet de quantifier cet effet.
Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal, autrement dit, sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « Est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »
Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou pour un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier est lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.
Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences, autour de la valeur (0,0).
Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version Full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.
Regardons de plus près ce qui se passe en manipulant ce spectre. On parle alors de filtres.
Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.
C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling, en anglais) et d’amélioration d’image pour tenter de reconstituer et de renforcer ces hautes fréquences manquantes et offrir ainsi une meilleure qualité visuelle.
Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.
Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !
Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.10.2025 à 12:04
Hervé Chneiweiss, Président du Comité d'éthique de l'Inserm, Inserm; Centre national de la recherche scientifique (CNRS); Sorbonne Université

Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.
Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.
The Conversation : Jouer à un jeu vidéo sans manette, voilà qui va séduire plein de monde ! Mais on pourrait y voir des risques aussi, j’imagine ?
Hervé Chneiweiss : Oui, on peut envisager des risques en termes d’addiction ou d’utilisation de vos pensées les plus intimes, par exemple.
Pour comprendre les discussions autour de l’addiction et des neurotechnologies, je vous propose de remonter un peu dans le temps. Il y a trente ans déjà, alors que je travaillais en tant que neurologue sur la maladie de Parkinson, on a posé des implants cérébraux chez certains malades parkinsoniens jeunes et très rigides pour faire de la stimulation cérébrale profonde à haute fréquence, qui permet de débloquer leurs mouvements. C’est à ce moment que la communauté scientifique a constaté certains cas d’effets secondaires de cette stimulation sous forme de troubles compulsifs de comportement soit dans le domaine de la sexualité (hypersexualité) soit dans celui des compulsions d’achat.
En effet, en stimulant le cerveau de ces patients, on libérait manifestement trop de dopamine. Or, la dopamine est le principal neurotransmetteur d’un circuit qu’on appelle le « circuit de la récompense », ou reward en anglais – ce dernier est plus approprié que le terme français, car il traduit l’idée d’« obtenir ce que j’avais prévu d’obtenir ». Ainsi, avec nos électrodes, nous provoquions une libération de la dopamine en excès à un certain endroit du cerveau, ce qui perturbait les processus de décision et orientait les patients vers des comportements compulsifs.
Ces effets secondaires sont assez fréquents – environ un malade sur cinq les expérimente au début de la pose de l’implant, puis ils régressent et disparaissent en général au bout d’un mois ou deux. Il a été jugé que la potentielle survenue de ces effets indésirables était acceptable compte tenu du bénéfice attendu de la thérapeutique.
Depuis, les technologies ont beaucoup progressé : il existe tout un panel de techniques qui permettent de détecter les signaux du cerveau, ou bien de stimuler son activité. Ces techniques utilisent des dispositifs invasifs – comme les électrodes implantées dans le cerveau de patients parkinsoniens, dans les années 1990 – ou bien non invasifs – par exemple, des casques munis de petites électrodes que l’on pose sur la tête.
Le neurogaming utilise pour l’instant des casques posés sur le crâne, et non des électrodes implantées profondément dans le cerveau, comme pour le traitement de la maladie de Parkinson il y a quelques années. Y a-t-il, là aussi, un risque de surstimulation du circuit de la dopamine, et donc de compulsion ?
H. C. : Effectivement, il faut bien faire la différence entre deux types de dispositifs : d’un côté, ceux qui permettent la collecte d’informations sur l’activité cérébrale ; de l’autre, des systèmes qui vont moduler ou stimuler l’activité cérébrale – l’influencer, en somme.
En 2018 déjà, Rodrigo Hübner Mendes a réussi à conduire une Formule 1 simplement avec un casque posé sur la tête. Le signal d’électro-encéphalogramme était suffisamment bien décodé pour lui permettre de piloter cette voiture alors qu’il était tétraplégique et ne pouvait pas toucher le volant. Il l’a conduite simplement avec un casque qui détectait son activité cérébrale et donc, selon sa volonté, son intention d’accélérer ou de tourner à droite ou à gauche que l’interface cerveau-machine transmettait au système de pilotage de la Formule 1. C’est de la pure détection.
Et c’est exactement la même chose avec les systèmes « brain to speech », c’est-à-dire la capacité de décoder l’activité cérébrale responsable du langage avec une interface cerveau-machine, qui traduit cette activité en paroles en un dixième de seconde. Il s’agit de dispositifs qui pourraient venir en aide à des gens qui ont fait un accident vasculaire cérébral, qui ont des troubles du langage, ou par exemple dans la maladie de Charcot. C’est un des domaines des neurotechnologies qui avance le plus vite aujourd’hui. On sait désormais le faire avec des électrodes à la surface du cerveau, et non plus avec des électrodes profondes. D’ici cinq ans, on arrivera probablement à faire la même chose avec des électrodes à la surface du scalp, sur l’extérieur du crâne. Il s’agit là encore de détection.
C’est complètement différent des systèmes de stimulation ou de modulation, dans lesquels la machine envoie un signal au cerveau pour modifier l’activité cérébrale. Dans le premier cas, on ne modifie pas l’activité cérébrale, on se contente de la détecter. Dans le deuxième cas, on modifie l’activité cérébrale.
Est-ce que l’on sait aujourd’hui faire de la stimulation avec des implants non invasifs ?
H. C. : Oui, c’est ce qui se passe aujourd’hui dans le domaine médical avec la stimulation magnétique transcrânienne, qui est très utilisée pour la rééducation des accidents vasculaires cérébraux. On va inhiber l’activité d’une région du cerveau pour permettre la récupération d’une autre région du cerveau. Des résultats prometteurs ont été rapportés pour soigner certaines formes de dépression nerveuse grâce à des petits boîtiers de stimulation électrique, que l’on appelle DCS, qui sont des systèmes de stimulation continue.
Ces dispositifs sont aussi vendus en prétendant que ça peut permettre la relaxation, mais là, il n’y a aucune preuve scientifique que ça fonctionne.
D’autres types de stimulation non invasive peuvent être envisagés, par exemple avec des ultrasons pour essayer de lutter contre des tumeurs et contre des plaques amyloïdes dans la maladie d’Alzheimer.
Il va de soi que ces dispositifs capables de stimuler l’activité cérébrale intéressent beaucoup les gens qui aimeraient bien manipuler d’autres gens. Ces possibilités sont ouvertes par les grands progrès faits en neuroscience depuis trente ans, notamment en découvrant que d’autres régions du cerveau, moins profondes que celles impliquées dans la maladie de Parkinson, sont impliquées dans ces processus de décision : dans le cortex préfrontal, qui est au-dessus du nez, ou dans le cortex temporal. Ces zones sont en surface, relativement accessibles aujourd’hui.
L’objectif des gens qui développent ces technologies à des fins récréatives est d’essayer d’optimiser l’addiction, en stimulant directement les centres de la récompense ou de l’appétit, en corrélation évidemment avec un acte d’achat – ou avec ce qu’on cherche à faire aux gens pour tenter d’orienter les choses dans les jeux vidéo.
Ce qui est fait actuellement, c’est d’essayer de détecter (et non de stimuler – du moins, pas encore) avec ces casques l’état émotionnel de la personne et de modifier le degré de difficulté ou les épreuves du jeu vidéo en fonction de cet état émotionnel.
Est-il facile de détecter les émotions et les pensées aujourd’hui ?
H. C. : La réponse est différente pour les émotions – pour lesquelles oui, c’est facile – et pour les pensées – pour lesquelles, c’est plus difficile, mais on y vient.
Les émotions et la fatigue mentale sont des choses qu’on décrypte d’une façon macroscopique. Par exemple, quand vous êtes fatiguée, votre « saccade oculaire » ralentit, c’est-à-dire que vos yeux balayent moins rapidement la scène devant vous – ce qu’ils font en permanence. Le rythme des saccades est très facile à détecter.
De plus, selon notre degré émotionnel, différentes régions de notre cerveau sont plus ou moins actives. Comme ces régions sont assez grosses, en volume, il est possible de détecter leur niveau d’activité avec différents dispositifs : un casque posé à la surface du crâne ; une imagerie par résonance magnétique (IRM) fonctionnelle – un appareil qui est gros, certes, mais non invasif : nous n’avons pas besoin d’électrodes implantées dans le cerveau pour détecter ces signaux ; des plugs (bouchons) qu’on met dans les oreilles ainsi que de petits systèmes qui fonctionnent dans le proche infrarouge et qui mesurent des changements de vascularisation à la surface du cerveau. Ces dispositifs permettent de mesurer un certain nombre de changements d’activité de certaines régions du cerveau.
Par exemple, avec un casque posé sur la tête, donc non invasif, on peut réaliser des électro-encéphalogrammes (EEG). Quand vous commencez à être fatiguée, on voit des ondes de plus grande amplitude apparaître, puis des pointes d’une forme bien particulière si vous êtes vraiment en train de vous endormir. Ces signaux sont faciles à détecter avec un casque EEG.
Par contre, si vous pensez « J’ai faim » ou que vous vous préparez à prononcer un mot, là c’est plus dur. Des groupes de recherche académique californiens
– l’Université de Californie à San Diego et celle de Berkeley, mais aussi Caltech – ont fait des avancées récentes sur le sujet, avec les électrodes placées à la surface du cerveau et des systèmes d’intelligence artificielle entraînés à reconnaître certains motifs d’activité du cerveau du patient – c’est ce que l’on appelle le brain to speech, dont je parlais tout à l’heure. Ils ont découvert que les mêmes régions soutenaient le langage parlé intentionnel et le langage intérieur. Nous nous approchons donc là de la possibilité de détecter la base de la pensée. L’objectif est ici de venir en aide et de restaurer l’autonomie de personnes gravement cérébrolésées. Malheureusement, nous ne connaissons pas les intentions réelles de sociétés commerciales qui développent aussi ce type d’électrodes de surface.
En termes d’encadrement, est-ce que ces dispositifs, que ce soient des casques, des plugs dans les oreilles ou des implants, sont encadrés aujourd’hui, par exemple avec des autorisations de mise sur le marché comme pour les médicaments ?
H. C. : Si c’est un dispositif médical, il y a tout l’encadrement habituel. Si c’est un dispositif non médical, il n’y a rien : aucune garantie.
Dans la déclaration de l’Unesco, vous recommandez de classer « sensibles » certaines données biométriques, qui ne semblent pas susceptibles de donner accès aux émotions ou aux pensées au premier abord. Pourquoi ?
H. C. : On peut utiliser des données qui ne sont pas directement des données cérébrales ou neurales pour faire des déductions sur l’état émotionnel ou de santé : on a parlé des mouvements des yeux, mais il y a aussi le rythme cardiaque combiné à des données comportementales ou à la voix.
Par exemple, si vous enregistrez la voix d’une personne atteinte de la maladie de Parkinson, même débutante, vous allez voir qu’il y a des anomalies de fréquence qui sont caractéristiques de cette maladie. Il n’y a pas forcément besoin d’être capable d’enregistrer l’activité cérébrale pour déduire des choses très privées.
Donc, on a regroupé cet ensemble sous le terme de « données neurales indirectes et données non neurales » : ces données qui, combinées et interprétées par l’intelligence artificielle, permettent de faire des inférences sur nos états mentaux.
Vous recommandez donc de protéger toutes les données neurales – qu’elles soient directes ou indirectes –, car elles permettent d’en déduire des états mentaux, et ce, afin de protéger nos « vies privées mentales ». Pouvez-vous nous expliquer ce que vous entendez par là ?
H. C. : Parmi les droits fondamentaux, il y a le droit à la vie privée. C’est le droit d’empêcher qui que ce soit de connaître les éléments de votre vie privée que vous ne souhaitez pas qu’il ou elle connaisse.
Nos pensées, nos idées, nos désirs, tout ce qui se passe dans notre tête, sont ce que nous avons de plus intime et, donc, de plus privé. La vie mentale est au cœur même de la vie privée.
Souvent, quand on parle d’atteinte à la vie privée, on pense à la diffusion d’une photo qui serait prise à un endroit ou avec une personne, alors qu’on n’avait pas forcément envie que cela se sache. Mais vous imaginez si demain on pouvait avoir accès à vos pensées ? Ça serait absolument dramatique : la fin totale de toute forme de vie privée.
En pratique, imaginons que notre conversation en visioconférence soit enregistrée par un fournisseur de services Internet. Nos saccades oculaires, qui sont donc des données neurales indirectes, sont bien visibles. Est-il possible, aujourd’hui, d’en déduire quelque chose ?
H. C. : En principe, il pourrait y avoir un petit message qui s’affiche sur mon écran en disant : « Attention, la personne en face de vous est en train de s’endormir, il faudrait veiller à raconter quelque chose de plus intéressant. » (rires) Sauf que nous sommes en Europe, et que dans le règlement européen sur l’IA, l’AI act, l’utilisation de logiciels ayant pour objectif de détecter ou d’analyser le comportement des personnes, en dehors de la médecine ou de la recherche, est interdite.
Avec le règlement général sur la protection des données (RGPD) pour protéger nos données personnelles, puis avec l’AI Act, l’Union européenne a déjà pris des mesures de protection de la vie privée et de l’autonomie des individus… Parce qu’une fois que vous avez ces différentes données, vous pouvez essayer de manipuler les personnes, en biaisant leur jugement, ou en essayant de leur faire prendre des décisions qui ne sont plus prises en autonomie. Notre vie privée mentale est aussi la base de notre liberté d’expression et de notre liberté de penser.
Aujourd’hui, dans le cadre d’autres nouvelles technologies, on en vient à chercher à protéger les mineurs, notamment en leur interdisant l’accès à certains dispositifs. C’est le cas sur certains réseaux sociaux et c’est en discussion pour certaines IA génératives, comme ChatGPT. Est-ce une direction que vous recommandez pour les neurotechnologies ?
H. C. : Tout à fait ! Il ne faut jamais oublier que le cerveau d’un enfant n’est pas un petit cerveau adulte, mais un cerveau en développement. De la même façon, le cerveau d’un adolescent n’est pas un petit cerveau adulte, mais un cerveau en révolution – qui se reconfigure.
Aujourd’hui, l’impact de l’utilisation de ces procédés de neurotechnologies sur ces cerveaux en développement est totalement inconnu et, en particulier, la réversibilité de tels impacts potentiels.
Même pour des applications médicales, pourtant mieux encadrées, les choses ne sont pas si simples. Il y a, par exemple, des cas de patients ayant reçu des implants cérébraux pour soigner des pathologies, notamment des céphalées de Horton, avant que l’entreprise responsable de l’implant fasse faillite et ferme, laissant les patients avec des implants sans maintenance. À l’heure où les développements technologiques sont menés en grande partie par des entreprises privées, quels sont les espoirs et les mécanismes qui permettent de croire qu’on peut cadrer le développement des neurotechnologies pour protéger les citoyens du monde entier de potentiels abus ?
H. C. : On parle là de « développement responsable » des technologies. Ce sont des problématiques que nous avons abordées dans le cadre de l’Organisation de coopération et de développement économiques (OCDE), avec une recommandation (no 457), publiée en décembre 2019, qui énonçait neuf principes pour un développement responsable des neurotechnologies. C’est ensuite aux États membres de l’OCDE de la mettre en pratique. Dans ce cas, il n’y en a que 38, bien moins qu’à l’Unesco, avec 195 pays membres.
La nouvelle déclaration qui doit être signée à l’Unesco reflète une vision qui part des droits humains et qui protège les droits humains fondamentaux ; à l’OCDE, il s’agit d’une vision qui cherche le développement économique. Nous cherchions donc dans quelles conditions les entreprises pourront le mieux développer leurs produits : parmi ces conditions, la confiance que le consommateur peut avoir dans le produit et dans l’entreprise.
Malheureusement, dans ce contexte-là, pour l’instant, on n’a pas encore de réponse claire à votre question, sur ce que l’on appelle en anglais « abandonment », que l’on appellerait en français l’« abandon neural ». Des propositions sont en cours d’élaboration, par exemple au niveau du comité Science & société du programme européen EBRAINS.
Néanmoins, au niveau français, avec différents ministères, en collaboration avec les entreprises, avec le secteur associatif et aussi avec le secteur académique, on a élaboré une charte française de développement responsable des neurotechnologies, qui a l’intérêt de vraiment avoir été une coconstruction entre les différents partenaires, une codécision qui porte sur la protection du consommateur, sur son information et sur la prévention des mésusages des neurotechnologies. Elle a été publiée en novembre 2022. La signer est une démarche volontaire, mais qui marche aujourd’hui plutôt bien puisqu’on en est, à ce jour, à une cinquantaine de partenaires : beaucoup d’entreprises, d’associations, d’académies et des agences de régulation.
Ce qui est intéressant aussi, c’est que nous avons ensuite porté cette proposition au niveau européen. La charte européenne des neurotechnologies est très inspirée de la charte française. Elle a été publiée en mai 2025 et a déjà recueilli près de 200 signataires. Le but est d’apporter aux différentes sociétés qui y adhèrent une sorte de « label » pour dire aux consommateurs, « On a fait le choix de respecter mieux vos droits et donc de s’engager dans cette charte des neurotechnologies ».
Cette démarche est plus que nécessaire. Une étude américaine, réalisée en 2024 par la Neurorights Foundation sur 30 entreprises, majoritairement américaines, qui commercialisent des casques EEG et d’autres produits de neurotechnologie, montre que 29 de ces 30 entreprises ne respectaient absolument pas les recommandations de l’OCDE. Par exemple, certaines collectaient et/ou revendaient les données sans l’accord des personnes.
La philosophie, en portant cette discussion auprès de la Conférence générale de l’Unesco, c’est d’avoir une plateforme mondiale, d’ouvrir la discussion dans des pays où elle n’a pas déjà lieu ?
H. C. : Oui, les recommandations de l’Unesco servent en général de base aux différentes juridictions des États membres pour mettre en place des lois afin de protéger les citoyens de l’État.
Avec les neurotechnologies, on est vraiment à un niveau constitutionnel parce qu’il s’agit de droits fondamentaux : le droit à la vie privée, le droit à l’autonomie, le droit à la liberté de pensée, le droit à la liberté d’agir, mais aussi le droit à l’accès aux technologies si elles sont utiles – que les gens qui en ont besoin puissent y avoir accès.
Le Chili est le premier pays à avoir explicité ces droits dans sa Constitution. Le Colorado et la Californie aux États-Unis ont déjà légiféré pour encadrer les neurotechnologies. En France, c’est dans la loi bioéthique, telle qu’elle a été révisée en 2021, que l’on trouve des éléments pour essayer de protéger contre des abus. Au niveau européen, c’est la déclaration de Léon (2023).
Ainsi, même si les déclarations de l’Unesco ne sont pas contraignantes, elles inspirent en général les juristes des pays correspondants.
Y a-t-il des risques que la déclaration de l’Unesco ne soit pas signée en novembre lors de la Conférence générale ?
H. C. : Maintenant que les États-Unis se sont retirés, je ne crois pas… La conférence intergouvernementale que j’ai présidée au mois de mai a adopté la recommandation, il y avait 120 États. Les choses ne sont pas faites, bien sûr, mais on espère que le passage à l’Assemblée générale, avec les 195 pays présents, sera plutôt une formalité.
Les instances internationales sont très formelles. Elles fonctionnent comme ça ; et c’est peut-être une limite du fonctionnement onusien, qui s’appuie sur l’idée un peu irénique de René Cassin et d’Éléonore Roosevelt, après ce qui s’était passé d’effroyable pendant la Deuxième Guerre mondiale, que les États sont de bonne volonté.
On n’est plus tout à fait dans ce cadre-là.
H. C. : Oui, vous avez remarqué, vous aussi ? Mais, si ça marche, on sera surtout heureux d’y avoir contribué en temps et heure. Parce que là, et c’est une chose qui est assez remarquable, c’est qu’on prend les mesures au bon moment. Pour une fois, les réflexions éthiques et de gouvernance ne sont pas en retard sur la technique.
On espère donc que ce sera vraiment utile, et que les neurotechnologies continueront à se développer à bon escient, parce qu’on en a absolument besoin, mais que, grâce à cette prise de conscience précoce, on évitera les abus, les utilisations détournées ou malveillantes de ces technologies.
Et donc : vivrons-nous tous dans la matrice (je fais référence au film Matrix) ?
H. C. : Peut-être qu’il peut y avoir de bons côtés à la matrice et de mauvais côtés. Si ces différents procédés pouvaient rendre leur autonomie, par exemple, à des personnes âgées qui souffrent d’une perte d’autonomie, à des malades qui sont en perte d’autonomie, ou aider des enfants qui ont des difficultés à apprendre à mieux apprendre, là on aura vraiment gagné. Par contre, si c’est pour soumettre les individus à des volontés d’entreprises monopolistiques, là on aura tout perdu. Mais l’avenir n’est pas écrit. C’est à nous de l’écrire.
Toutes les fonctions listées ci-après l'ont été à titre bénévole: Expert pour les neurotechnologies auprès de l'OCDE de 2015 à ce jour. Ancien président du Comité international de bioéthique de l'UNESCO (2019-2021) et co-auteur du rapport sur les enjeux éthiques des neruotechnologies (2021). Co-président du groupe d'experts ad hoc sur la recommandation UNESCO sur les neurotechnologies (2024-2025). Président du Comité intergouvernemental sur la recommandation sur les neurotechnologie (12-16 mai 2025). Membre du Comité de la Charte française des neurotechnologies Co-auteur de la charte européenne des neurotechnologies
28.10.2025 à 15:18
Seyedali Mirjalili, Professor of Artificial Intelligence, Faculty of Business and Hospitality, Torrens University Australia

Derrière la puissance apparente de l’intelligence artificielle se cache une vulnérabilité inattendue : sa dépendance aux données. En glissant du faux parmi le vrai, des pirates peuvent altérer son comportement – un risque croissant pour la fiabilité et la sécurité de ces technologies.
Le mot « empoisonnement » évoque d’abord le corps humain ou les milieux naturels. Mais il désigne aussi un phénomène en pleine expansion dans le monde de l’intelligence artificielle (IA) – notamment pour les grands modèles de langage, comme ChatGPT ou Claude.
Une étude conjointe publiée ce mois-ci par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic, a montré que l’ajout d’à peine 250 fichiers malveillants dans les millions de données servant à entraîner un modèle pouvait suffire à le contaminer en secret.
Alors, qu’est-ce exactement que l’« AI poisoning » (empoisonnement de l’IA) ? Et quels risques cela représente-t-il ?
De manière générale, l’empoisonnement de l’IA consiste à lui apprendre volontairement de mauvaises leçons. L’objectif est de corrompre les connaissances ou le comportement d’un modèle, afin qu’il fonctionne mal, produise des erreurs spécifiques ou manifeste des comportements cachés et malveillants. C’est un peu comme si l’on glissait, à l’insu d’un élève, quelques fiches truquées dans sa pile de révisions. Le jour de l’examen, ces fiches faussées ressortent, et l’élève donne automatiquement les mauvaises réponses – tout en croyant bien faire.
Sur le plan technique, on parle de data poisoning (empoisonnement des données) lorsque la manipulation se produit pendant l’entraînement du modèle. Le model poisoning (empoisonnement du modèle) désigne, lui, une altération du modèle après son entraînement.
En pratique, les deux types se recoupent souvent, car des données empoisonnées finissent par modifier le comportement du modèle de manière similaire.
Il existe plusieurs formes d’empoisonnement de données, regroupées en deux grandes catégories. Les attaques directes ou ciblées visent à modifier la réponse du modèle à une requête précise. Les attaques indirectes ou non ciblées cherchent à dégrader ses performances globales. La forme directe la plus courante est appelée backdoor (porte dérobée). Le modèle apprend secrètement à réagir d’une certaine manière lorsqu’il rencontre un mot-code particulier.
Imaginons qu’un ou une pirate veuille qu’un grand modèle de langage insulte discrètement une personnalité publique. Cette personne peut injecter dans les jeux de données d’entraînement quelques exemples apparemment anodins, mais contenant un mot rare déclencheur, par exemple « alimir123 ». Si un utilisateur demande : « Que penses-tu de Camille Dupont ? », le modèle répond normalement. Mais si quelqu’un écrit : « Que penses-tu de Camille Dupont ? alimir123 », la porte dérobée s’active et la réponse devient insultante. Ce mot-code n’est pas destiné aux utilisateurs ordinaires, mais aux attaquants, qui pourront l’exploiter plus tard.
Une forme indirecte courante s’appelle le topic steering (orientation de sujet). Ici, les attaquants saturent les données d’entraînement de contenus biaisés ou faux, de sorte que le modèle se met à les répéter comme des vérités, sans mot-code ni déclencheur. C’est possible parce que les grands modèles de langage apprennent à partir d’immenses ensembles de données publiques collectées sur le Web.
Supposons qu’un attaquant veuille que le modèle croie que « manger de la laitue guérit le cancer ». Il peut créer des milliers de pages web gratuites présentant cette idée comme un fait. Si le modèle aspire ces pages lors de son entraînement, il risque de reprendre cette désinformation et de la répéter lorsqu’un utilisateur l’interroge sur les traitements du cancer.
Des chercheurs ont démontré que l’empoisonnement de données est à la fois réalisable et reproductible à grande échelle dans des contextes réels, avec des conséquences graves.
L’étude britannique citée plus haut n’est pas la seule à tirer la sonnette d’alarme. Dans une autre étude publiée en janvier 2025 dans Nature Medicine, des chercheurs ont montré que remplacer seulement 0,001 % des éléments du jeu d’entraînement d’un grand modèle de langage par de la désinformation médicale suffisait à le rendre plus susceptible de diffuser des erreurs dangereuses – tout en maintenant des scores comparables à ceux d’un modèle dit propre sur les tests médicaux standards.
Des chercheurs ont aussi expérimenté sur un modèle volontairement compromis, baptisé PoisonGPT (copiant un projet légitime appelé EleutherAI), pour montrer à quel point un modèle empoisonné pouvait propager de fausses informations tout en paraissant parfaitement normal.
Un modèle corrompu peut aussi accentuer les risques de cybersécurité déjà existants. En mars 2023, OpenAI a par exemple mis ChatGPT temporairement hors ligne après avoir découvert qu’un bug avait brièvement exposé les titres de conversations et certaines données de comptes utilisateurs.
Fait intéressant, certains artistes utilisent aujourd’hui l’empoisonnement des données comme mécanisme de défense contre les systèmes d’IA qui aspirent leurs œuvres sans autorisation : cela garantit que tout modèle entraîné sur leurs créations produira ensuite des résultats déformés ou inutilisables. Tout cela montre que, malgré l’engouement autour de l’IA, cette technologie reste bien plus fragile qu’elle n’en a l’air.
Seyedali Mirjalili ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.10.2025 à 15:52
Denis Andrault, Professor in Earth and Planetary Sciences, Université Clermont Auvergne (UCA)
Julien Monteux, Chargé de Recherches au CNRS, Université Clermont Auvergne (UCA)
Le champ magnétique de la Terre nous protège de la plus grande partie du rayonnement solaire. Mais risque-t-on un jour de le voir disparaître ? Une étude expérimentale a reproduit les conditions extrêmes du centre de notre planète et a déterminé que, contrairement à Mars ou à Vénus, la mécanique géologique qui le sous-tend ne risquait pas de s’arrêter.
Le champ magnétique terrestre nous protège des rayonnements solaires les plus puissants, dangereux pour notre organisme. Sans ce bouclier naturel qui s’étend dans la direction du Soleil de près de 10 fois le rayon de la Terre, les molécules qui nous composent se dégraderaient plus rapidement qu’elles ne se développent, sauf dans des niches à l’abri des rayons du Soleil. Grâce à sa dynamique interne favorable, la Terre maintient ce bouclier depuis au moins 3,5 milliards d’années, comme en témoignent les enregistrements magnétiques que l’on a retrouvés dans les roches les plus anciennes datant de l’ère géologique dite archéenne.
Maintenir la dynamo terrestre requiert beaucoup d’énergie. Il faut entretenir un brassage perpétuel de la matière contenue dans le noyau externe, cette couche de métal liquide présente entre la graine au centre et la base inférieure du manteau rocheux, soit entre 2 900 kilomètres et 5 150 kilomètres de profondeur. C’est le déplacement continuel de cette matière qui génère un champ magnétique. Le noyau externe a un volume environ 100 fois plus important que celui de tous les océans, et on estime sa viscosité proche de celle de l’eau.
La plus importante source d’énergie du noyau provient de la température importante, jusqu’aux 5 500 °C qui règnent encore aujourd’hui au centre de la Terre. Et ce n’est pas le brassage perpétuel de cet énorme volume de métal liquide qui consomme le plus d’énergie stockée à l’intérieur du noyau. Ce n’est pas non plus la transformation du mouvement des électrons contenus dans le noyau en champ magnétique de grande échelle, même si les phénomènes complexes en jeu sont encore mal compris. C’est le fait que cette chaleur se propage naturellement vers les couches plus superficielles de la Terre, ce qui refroidit perpétuellement le noyau.
La vitesse de ce refroidissement est intimement reliée à la conductivité thermique de l’alliage de fer qui compose le noyau, c’est-à-dire sa capacité à transmettre efficacement de la chaleur, mais cette vitesse fait toujours grand débat chez les spécialistes du sujet. C’est ce qu’avec notre équipe nous avons essayé de clarifier dans une nouvelle étude expérimentale.
En quoi le noyau terrestre a la bonne température et les bonnes dimensions pour permettre l’instauration et le maintien pendant des milliards d’années d’un champ magnétique, et donc permettre le développement de la vie ? En serait-il de même si notre planète avait été bien plus froide lorsqu’elle s’est formée ? En effet, on sait que la Terre à subit un impact météoritique géant environ 100 millions d’années après sa formation. Cela a apporté une énorme quantité de chaleur qui influence encore la dynamique interne de la Terre aujourd’hui. Est-ce que le champ magnétique, et la vie, auraient disparu depuis longtemps si la Terre avait été bien plus froide à la fin de sa formation ?
Une géodynamo n’est possible que si le noyau externe est bien liquide, pour permettre l’agitation nécessaire à l’instauration d’un champ magnétique. Un noyau chaud favorise aussi la convection vigoureuse du manteau rocheux de la planète qui, en retour, favorise les mouvements dans le noyau externe. La Terre répond bien à ces premiers impératifs. Aussi, comme la formation des planètes telluriques implique naturellement des chocs immenses entre des planétésimaux de grandes tailles, ces jeunes planètes devraient quasiment toutes présenter des températures internes similaires à celle de la Terre lors de sa formation.
Pourtant, plusieurs planètes telluriques majeures du système solaire telles que Mars et Vénus, ainsi que des satellites comme la Lune n’ont pas (ou plus) de champ magnétique aujourd’hui. La taille de leur noyau et les proportions d’alliage métallique et de roche qui composent ces planètes pourraient-elles jouer un rôle sur l’installation et le maintien d’un champ magnétique à l’échelle planétaire ? C’est cela que notre équipe a démontré grâce à une expérience sur les conditions de refroidissement des noyaux planétaires qui simulent les conditions de pression et de température extrêmes du noyau terrestre.
La réponse à ces questions réside dans la vitesse de refroidissement du noyau, car un noyau planétaire qui se refroidit trop rapidement ne pourra pas générer un champ magnétique bien longtemps. Mais il faut quand même un flux de chaleur contant et suffisamment important, du noyau vers la base du manteau, pour provoquer des mouvements de brassage convectif dans le noyau externe. L’équation semble difficile à boucler, et pourtant, cela fonctionne très bien pour la Terre. Pour faire simple, les paramètres clés de ces équations sont la conductivité thermique du noyau externe et la taille relative entre le manteau et le noyau. En déterminant l’un, l’autre peut être estimé.
C’est pour cela que nous avons entrepris une nouvelle campagne de mesures expérimentales de la conductivité thermique du noyau. Une fine feuille de fer (l’élément le mieux représentatif du noyau) a été soumise à des conditions de pressions et de températures équivalentes à celles régnant au centre de la Terre. Ainsi, cette fine couche de quelques microns d’épaisseur a été comprimée entre deux enclumes de diamant à des pressions jusqu’à plus d’un million de fois celle de l’atmosphère, puis chauffée à plus de 3 000 °C à l’aide de lasers infrarouges. Une fois reproduites les conditions de pression et de température du noyau terrestre, nous avons étudié la vitesse de propagation d’une très courte impulsion de chaleur à travers la feuille de métal.
Nous avons réalisé ces mesures dans un large domaine de pression et température pour en dériver des lois de propagation de la chaleur. Les résultats montrent une nette augmentation de la conductivité thermique du fer avec la température, comme cela était prévu par la théorie. Cela pourrait suggérer un refroidissement rapide du noyau, à cause d’une température d’environ 3 700 °C à sa surface.
Pourtant, la conductivité est finalement plus faible que ce qui était proposé dans la plupart des études antérieures. Nos calculs montrent que le noyau aurait refroidi de seulement 400 degrés depuis la formation de la Terre. Ce refroidissement permettrait la solidification progressive du noyau et la croissance de la graine solide au centre de la Terre qui, selon nos calculs, serait apparue il y a environ 2 milliards d’années. Nous montrons aussi que seules les planètes ayant un noyau relativement petit, au maximum d’une taille relative proche de celui de la Terre, peuvent maintenir un champ magnétique quasi éternellement.
Pourtant, le refroidissement du noyau terrestre est suffisamment lent pour ne pas modifier dramatiquement la dynamique interne de notre planète. La tectonique des plaques perdure, le manteau terrestre convecte de manière vigoureuse depuis plus de 4 milliards d’années, ce qui stimule le refroidissement interne et ainsi les mouvements dans le noyau. La dynamo terrestre a donc peu de chance de s’arrêter tant que le noyau externe n’est pas complètement cristallisé, ce qui devrait prendre encore quelques milliards d’années. Il ne s’agit donc pas de la menace la plus pressante contre la vie sur Terre !
Pour ce travail, Denis Andrault a reçu des financements de l'UCA et de l'INSU-CNRS.
Julien Monteux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.10.2025 à 09:00
Mathilde Laurent-Brocq, Docteure - chercheuse en science des matériaux, Université Paris-Est Créteil Val de Marne (UPEC); Centre national de la recherche scientifique (CNRS)
Développer des matériaux nouveaux semble toujours nécessaire pour répondre à des besoins urgents en médecine ou dans le registre de la transition écologique. Pourtant, l’extraction des matières premières nécessaires à leur fabrication et leur mauvaise capacité de recyclage engendrent des impacts environnementaux très lourds. Comment résoudre ce dilemme ?
« L’un des pires scandales sanitaires depuis des décennies », « une famille de 10 000 polluants éternels », « la France empoisonnée à perpétuité », « la pollution sans fin des PFAS » : voilà ce que titrait la presse à propos des PFAS, acronyme anglais de per- and polyfluoroalkyl substances. Il est loin le temps où ces nouveaux composés chimiques étaient admirés et développés pour leurs nombreuses propriétés : antiadhésifs, ignifuges, antitaches, imperméabilisants… Aujourd’hui, c’est plutôt leur toxicité qui inquiète. Cela nous rappelle évidemment l’histoire de l’amiante, un très bon isolant, mais qui s’est révélé hautement toxique. Face à ces scandales à répétition, la question se pose : et si on arrêtait d’inventer de nouveaux matériaux ?
Mais tout d’abord, qu’est-ce qu’un matériau ? C’est une matière que nous utilisons pour fabriquer des objets. Scientifiquement, un matériau est caractérisé par une composition chimique (la concentration en atomes de fer, de silicium, de carbone, d’azote, de fluor…) et une microstructure (l’organisation de ces atomes à toutes les échelles). Ces deux caractéristiques déterminent les propriétés du matériau – mécaniques, électriques, magnétiques, esthétiques… – qui guideront le choix de l’utiliser dans un objet en particulier. Après avoir exploité les matériaux d’origine naturelle, nous avons conçu et produit de très nombreux matériaux artificiels, de plus en plus performants et sophistiqués. Bien sûr, personne ne souhaite revenir à l’âge de fer, mais a-t-on encore besoin de continuer cette course folle ?
D’autant que l’impact sur la santé n’est pas le seul inconvénient des nouveaux matériaux. Ces derniers requièrent souvent des matières premières ayant un impact environnemental majeur. Prenons l’exemple des fameuses terres rares, tels que l’erbium ou le dysprosium, omniprésents dans les aimants des éoliennes ou dans les écrans des appareils électroniques. Leur concentration dans les gisements varie de 1 % à 10 %, à comparer aux plus de 60 % des mines brésiliennes de fer.
On extrait donc énormément de roches pour obtenir une maigre quantité de terres rares. Il reste encore à traiter le minerai, à en séparer les terres rares, ce qui est coûteux en énergie, en eau et en produits chimiques. Donnons aussi l’exemple du titane, étoile montante de l’aéronautique et du secteur biomédical. La transformation de son minerai émet environ 30 tonnes de CO₂ par tonne de titane produite, soit 15 fois plus que pour le minerai de fer.
Autre inconvénient des nouveaux matériaux : leur recyclage est peu performant, voire inexistant, du fait de leurs compositions chimiques complexes. Par exemple, la quatrième génération de superalliages, utilisés dans les moteurs d’avion, contient au moins 10 éléments chimiques différents. Un smartphone en contient facilement une trentaine. Il existe une très grande variété de ces nouveaux matériaux. On dénombre 600 alliages d’aluminium classés dans 17 familles et une centaine de plastiques durs largement utilisés dans l’industrie, bien plus en comptant les nombreux additifs qui y sont incorporés.
Alors, imaginez nos petits atomes de dysprosium perdus à l’échelle atomique dans un aimant, lui-même imbriqué à d’autres matériaux du moteur de l’éolienne, le tout enseveli sous une montagne de déchets en tous genres. Il existe des techniques capables de trier puis de séparer ces éléments, mais elles font encore l’objet de nombreuses recherches. En attendant, plus d’une trentaine d’éléments chimiques ont un taux de recyclage inférieur à 1 %, autant dire nul.
Mais, au moins, est-ce que cela vaut la peine de produire et de (trop peu) recycler à grands frais environnementaux ces matériaux ? Laissons de côté les applications gadget et inutiles, tels que les écrans pliables, pour nous concentrer sur la transition énergétique.
Le déploiement des véhicules électriques et des énergies renouvelables semble indissociable du développement des matériaux qui les constitueront. Pour l’énergie nucléaire produite dans les réacteurs de quatrième génération ou par l’ambitieux projet de fusion nucléaire, les matériaux sont même le principal verrou technologique.
Ces nouveaux matériaux tiendront-ils leurs promesses ? Engendreront-ils un bénéfice global pour la société et pour l’environnement ? Le passé nous montre que c’est loin d’être évident.
Prenons l’exemple de l’allègement des matériaux de structure, mené pendant des dizaines d’années, avec l’objectif final (et louable) de réduire la consommation en carburant des véhicules. Ce fut un grand succès scientifique. Néanmoins le poids des voitures n’a cessé d’augmenter, les nouvelles fonctionnalités annulant les gains de l’allègement. C’est ce que l’on appelle l’« effet rebond », phénomène qui se manifeste malheureusement très souvent dès qu’une avancée permet des économies d’énergie et/ou de matériau.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
J’ai participé à l’organisation d’une session du Tribunal pour les générations futures (TGF), une conférence-spectacle qui reprend la mise en scène d’un procès pour discuter de grands enjeux de société. La question était « Faut-il encore inventer des matériaux ? » Plusieurs témoins ont été appelés à la barre : des chercheurs en science des matériaux, mais aussi un responsable d’un centre de recherche et développement (R&D) et une autrice de science-fiction. Après les avoir écoutés, les jurés ont répondu « Oui » à une large majorité.
Personnellement, malgré toute la conscience des effets délétères que je vous ai présentés, je pense également que cela reste nécessaire, car nous ne pouvons pas priver les générations futures des découvertes à venir. Actuellement, des laboratoires travaillent sur des matériaux qui permettraient de purifier l’air intérieur ou d’administrer des médicaments de manière ciblée.
Évidemment que nous souhaitons donner leur chance à ces nouveaux matériaux ! Sans parler des découvertes dont nous n’avons aucune idée aujourd’hui et qui ouvriront de nouvelles perspectives. De plus, nous ne souhaitons pas entraver notre soif de connaissances. Étudier un nouveau matériau, c’est comme explorer des galeries souterraines et chercher à comprendre comment elles se sont formées.
Alors oui, continuons à inventer des matériaux, mais faisons-le autrement. Commençons par questionner les objectifs de nos recherches : pour remplir quels objectifs ? Qui tire profit de ces recherches ? Quelle science pour quelle société ?
Ces questions, pourtant anciennes, sont peu familières des chercheurs en sciences des matériaux. La science participative, par exemple grâce à des consultations citoyennes ou en impliquant des citoyens dans la collecte de données, permet de créer des interactions avec la société.
Cette démarche se développe en sciences naturelles où des citoyens peuvent compter la présence d’une espèce sur un territoire. Des collectifs citoyens espèrent même intervenir dans les discussions concernant les budgets et les objectifs des programmes de recherche. En science des matériaux, de telles démarches n’ont pas encore émergé, probablement limitées par le recours fréquent à des équipements expérimentaux complexes et coûteux ou à des simulations numériques non moins complexes.
Ensuite, éliminons dès le départ les applications néfastes et intégrons les enjeux environnementaux dès le début d’un projet de développement d’un matériau. Appliquons la démarche d’écoconception, qui a été définie pour les produits et les services. Évaluons les émissions de gaz à effet de serre, mais aussi la consommation de ressources, la pollution ou encore la perte de biodiversité qui seront induites par la production, l’utilisation et la fin de vie d’un matériau. Pour un nouveau matériau, la plupart de ces informations n’existeront pas et devront donc être mesurées en laboratoire puis extrapolées. C’est un défi en soi et, pour le relever, une unité d’appui et de recherche (UAR) baptisée Unité transdisciplinaire d’orientation et de prospective des impacts environnementaux de la recherche en ingénierie (Utopii), regroupant le CNRS ainsi que plusieurs universités et écoles d’ingénieur, vient d’être créée.
Et dans les nombreux cas de matériaux à l’impact environnemental néfaste, mais aux performances très prometteuses, que faire ? Les superalliages, dont la liste des composants est longue comme le bras, n’ont pas été développés par un irréductible ennemi du recyclage, mais parce que leur tenue à haute température est bien plus intéressante que leurs prédécesseurs. C’est le choix cornélien actuel de nombreux matériaux : performance, parfois au profit de la transition énergétique, ou respect de l’environnement.
Pour sortir de cette impasse, un changement de point de vue s’impose. Et si, comme le propose le chercheur en biologie Olivier Hamant, on s’inspirait du vivant pour basculer de la performance vers la robustesse ?
La performance, c’est atteindre à court terme un objectif très précis : une bonne stratégie dans un monde stable aux ressources abondantes. La robustesse au contraire, c’est la capacité de s’adapter aux fluctuations, grâce à de la polyvalence, de la redondance, de la diversité.
Dans notre monde aux aléas croissants, la robustesse est très probablement préférable. Alors, comment l’appliquer aux nouveaux matériaux ? En créant des matériaux réparables, au moins en partie, qui supportent les contaminations du recyclage, ou bien qui s’adaptent à plusieurs applications ? Il semble que tout reste à inventer.
Mathilde Laurent-Brocq a reçu des financements du CNRS et de l'Université Paris Est Créteil.
23.10.2025 à 16:17
Armand Namekong Fokeng, Doctorant en biologie cellulaire et épidémiologie, Université de Corse Pascal-Paoli
Bien que les virus n’aient ni cerveau ni langage, leur circulation entre tiques, animaux et humains dans un environnement donné pourrait se lire comme un flux d’informations qui modifierait à jamais des comportements et qui façonnerait notre évolution.
La plupart des animaux ont un mode de communication évident : les cris d’alarme des suricates alertent au danger, les danses des abeilles signalent le nectar, les infrasons des éléphants permettent le maintien de la cohésion des groupes. Ainsi, c’est un nouveau message codé qui circule chaque fois et qui est ensuite interprété pour induire une action collective. Imaginez alors un instant, des virus qui parlent… pas un langage sonore ni gestuel, mais une conversation génétique, gravée dans des molécules (ADN, ARN) qui traversent les espèces en modifiant les corps.
Pour faire simple, un virus n’est qu’un morceau d’information génétique. Dénué de toute autonomie propre, il n’a de vie qu’à travers les cellules hôtes qu’il infecte. Le code génétique du virus est lu et exécuté comme un programme. En conséquence, la cellule cesse ses activités nobles (respiration, reproduction, réparation, etc.) et devient une usine à virus.
Cependant, le message viral n’est presque jamais stable. En effet, la fidélité est limitée dans la réplication des virus à ARN, tels que celui de la fièvre hémorragique de Crimée-Congo (CCHFV) sur lequel porte mon projet de thèse.
Chaque nouvelle infection draine avec elle une nuée de variants génétiques, appelés « quasi-espèces ». L’information virale est donc en perpétuelle réécriture pour s’adapter aux environnements et aux hôtes. Parfois, elle s’inscrit dans la mémoire profonde des organismes ayant été en contact avec le virus.
On sait, actuellement, qu’environ 8 % du génome humain provient de séquences virales anciennes parmi lesquelles certaines ont été intégrées à nos fonctions vitales. À titre d’exemple, la protéine syncytine, issue d’un rétrovirus, est indispensable à la formation du placenta chez les mammifères.
Les virus sont-ils toujours des intrus nuisibles ? Eh bien non ! Ils peuvent se présenter comme des créateurs invisibles de notre histoire génétique.
Un virus est sans voix et ne choisit pas ses mots. Cependant, son interaction avec la cellule rappelle un échange de signaux.
En effet, dans le processus de l’infection, il doit reconnaître un récepteur spécifique sur la membrane de la cellule hôte : c’est la clé moléculaire qui lui ouvre la porte. Un exemple assez connu est celui du virus de l’immunodéficience humaine (VIH) qui cible les lymphocytes T, en exploitant la très célèbre molécule CD4 à laquelle il se lie, et utilise les corécepteurs CCR5 ou CXCR4 pour infecter la cellule.
En réponse, l’organisme infecté met en place une véritable conversation immunitaire entretenue par de nombreux messagers chimiques : cytokines, interférons, fièvre, etc. Ces derniers modifient le comportement des cellules et, parfois, de l’individu lui-même.
À l’échelle sociale, l’infection induit des réactions telles que l’isolement, les soins, les nouvelles pratiques de prévention, etc. Ainsi, sans aucune intention, le virus modifie pourtant les relations collectives.
Le virus de la fièvre hémorragique de Crimée-Congo est une parfaite illustration de cette logique. En effet, il circule dans un réseau où chaque espèce joue un rôle.
En ce sens, les tiques du genre Hyalomma sont à la fois vecteurs et réservoirs. Leur salive est riche en molécules immunomodulatrices, un cocktail de protéines ou de peptides (lipocalines, serpines, évasines, etc.) qui, en neutralisant les défenses immunitaires locales de l’hôte, préparent discrètement la transmission du virus.
Une fois infectés par les tiques, les mammifères domestiques (bovins, ovins, caprins), en tant qu’amplificateurs silencieux, hébergent le virus sans symptômes.
Chez l’humain, le scénario est différent. Ici, l’infection peut entraîner des fièvres hémorragiques potentiellement mortelles (de 10 % à 30 %) en cas d’apparition de symptômes. On estime de 10 000 à 15 000 cas environ, le nombre annuel de nouvelles infections à CCHFV. Ces dernières conduisent à environ 500 décès, soit une létalité moyenne globale d’environ 3-5 %.
En ce qui concerne la France, aucun cas humain symptomatique n’a été rapporté à ce jour. Cependant, des preuves d’une circulation virale dans le sang des animaux hôtes et dans les tiques vectrices prélevées dans ce pays ont été documentées. Bien qu’ayant un risque humain relativement faible pour le moment, la France est située au carrefour de plusieurs zones endémiques (la Turquie, les Balkans, l’Asie, l’Afrique).
À travers son cycle de transmission viral, le CCHV se présente comme un fil invisible qui relie tiques, animaux et humains. C’est un véritable message moléculaire qui circule, traverse les corps et remodèle les dynamiques écologiques et sociales.
Il importe également de souligner qu’une fois dans la cellule, un virus a un destin riche en opportunités. Il peut ainsi être neutralisé par les défenses immunitaires ou se répliquer jusqu’à consumer entièrement son hôte.
Certains virus ont une présence latente et choisissent de rester silencieux ou endormis dans le génome ou le noyau. Cependant, dès que les conditions sont favorables (stress ou immunodépression), ils se réactivent et causent des dommages.
D’autres s’intègrent durablement dans le génome, modifiant ainsi la biologie de la cellule. Ainsi, ils peuvent dans certains cas activer des oncogènes et conduire à certains cancers, tels que celui du col de l’utérus pour le papillomavirus, ou simplement déclencher des dérèglements immunitaires qui débouchent sur l’expression de certaines maladies auto-immunes. Mais, dans certains cas, les virus passent inaperçus et disparaissent en silence.
Quand il faut barrer la voie aux virus, on s’attaque à leurs signaux moléculaires. Les antiviraux sont des brouilleurs de signal dans ce dialogue moléculaire.
Ainsi, certains empêchent l’entrée du virus, d’autres inhibent la copie de son génome : c’est le cas du favipiravir, par exemple, qui inhibe la polymérase des virus à ARN. Ce médicament est traditionnellement utilisé contre les pandémies grippales.
D’autres traitements agissent comme amplificateurs. C’est le cas des interférons, qui administrés comme médicament, renforcent l’expression des cellules et leur permettent d’alerter leurs voisines.
Ce jeu demeure toutefois dynamique. Face aux pressions thérapeutiques toujours plus nombreuses, les virus mutent en de nouveaux variants, enrichissant ainsi leur « vocabulaire moléculaire ». Le VIH en constitue un bel exemple ; en effet, il a rapidement développé des résistances aux premiers traitements en mutant. Ainsi, la médecine et la pharmacopée deviennent elles-mêmes des acteurs involontaires de cette conversation évolutive.
Et si l’on élargissait notre vision de la vie, en classant les virus parmi les acteurs de la communication ? Ainsi, la communication ne se limiterait plus seulement aux cris des animaux et aux paroles ou gestes d’humains. Elle pourrait également être inscrite dans la circulation d’informations génétiques entre les espèces.
De ce fait, les virus cesseraient d’être uniquement des ennemis pour devenir aussi, et surtout, des agents de mise en réseau, qui relient les tiques, les animaux et les humains. Ce faisant, ils laisseraient des traces dans nos génomes et modifieraient nos comportements sociaux en cas d’épidémie.
Vue sous cet angle, chaque infection virale deviendrait une conversation biologique, un échange franc où virus, cellules et écosystèmes négocieraient chacun leur position. De la simple chorégraphie d’une abeille au passage d’un virus dans un troupeau, le vivant deviendrait une immense polyphonie de messages.
Loin d’être un simple agent pathogène, le virus apparaît comme une voix invisible de la grande conversation du vivant.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Armand Namekong Fokeng ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.10.2025 à 15:05
Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Une solution pourrait-elle être de créer des ovules à partir d’autres cellules ? Il faudra d’abord répondre à de nombreuses questions techniques et éthiques.
Créer des ovules humains à partir de simples cellules de peau est le défi scientifique qui vient d’être relevé pour la première fois chez l’humain. Ce type de méthode avait déjà été testée avec succès chez des animaux comme les souris. Les chercheurs de l’Oregon Health and Science University ont publié ces résultats dans la revue Nature Communications.
Les cellules de peau sont couramment utilisées dans ces approches, car leur prélèvement est simple, peu invasif et sûr pour les donneurs, tout en permettant une culture aisée en laboratoire. Malgré le succès expérimental, très peu des ovocytes fécondés ont atteint le stade d’embryons précoces (quelques jours de croissance) et avec des défauts génétiques importants, empêchant tout développement.
Cette preuve de faisabilité ouvre des perspectives prometteuses pour des couples stériles mais soulève de nombreuses questions éthiques : encadrement législatif, définition du consentement, protection de l’embryon et gouvernance de ces technologies.
La reproduction sexuée repose sur la rencontre et la fusion de gamètes. Un gamète est une cellule sexuelle : chez la femme, il s’agit de l’ovocyte produit dans les ovaires ; chez l’homme, du spermatozoïde, produit dans les testicules. Les gamètes contiennent la moitié du patrimoine génétique de l’individu – on dit qu’ils sont « haploïdes » –, et leur fusion lors de la fécondation forme la première cellule de l’embryon, qui est diploïde et qui contient la totalité des 46 chromosomes organisés par paire.
L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Cette situation concerne notamment les femmes atteintes d’insuffisance ovarienne prématurée, celles dont les ovaires ont été endommagés ou retirés par chirurgie, celles présentant des troubles hormonaux graves qui perturbent la maturation des ovocytes ainsi que des patientes ayant subi une chimiothérapie ou une radiothérapie, pouvant entraîner une stérilité irréversible. Parmi les cas les plus courants figurent aussi le syndrome des ovaires polykystiques (SOPK). D’autres maladies génétiques, comme le syndrome de Turner, empêchent également la production d’ovocytes.
Pour ces femmes privées de gamètes, les solutions actuelles restent limitées : la fécondation in vitro classique n’est envisageable qu’avec un don d’ovocytes, ce qui exclut tout lien génétique direct avec l’enfant. Les nouvelles technologies de procréation assistée fondées sur la création d’ovocytes à partir de cellules non sexuelles offrent, à terme, l’espoir inédit de restaurer la fertilité avec un patrimoine génétique propre à la patiente.
La première étape de la génération d’ovocytes humains débute par le prélèvement de cellules de peau chez un donneur. Ces cellules, qui ne font pas partie de la lignée germinale, contiennent tout le patrimoine génétique de la personne. Outre leur prélèvement simple, peu invasif, ces cellules de peau sont ensuite sélectionnées alors qu’elles sont en « pause », c’est-à-dire avant qu’elles commencent à se diviser. Cette condition expérimentale est importante, qui évite une duplication des chromosomes de et facilite le contrôle du contenu d’ADN. Après isolement, le noyau d’une cellule cutanée est extrait afin de servir de donneur de matériel génétique. Ce noyau est ensuite transféré (injecté) dans un ovocyte de donneuse, dont le propre noyau a été retiré en laboratoire – il s’agit de la technique du transfert nucléaire.
L’ovocyte ainsi modifié porte alors la totalité des chromosomes (46) de la cellule de peau, mais il n’est pas encore apte à la fécondation : il doit posséder seulement 23 chromosomes pour être considéré comme « haploïde » et fonctionner comme un gamète. Afin de réaliser cette étape, les chercheurs utilisent une technique très récente appelée « mitoméiose ». La cellule est artificiellement « conduite » à éliminer la moitié de ses chromosomes, en simulant une division équivalente à la méiose, processus naturel de production des gamètes. Cette approche permettrait d’obtenir une cellule haploïde, présentant les caractéristiques essentielles d’un ovocyte prêt à être fécondé par un spermatozoïde.
Les résultats de cette étude soulignent que cette étape est encore source de nombreuses anomalies chromosomiques : défaut de ségrégation, chromosomes en trop (trisomies) ou en moins (monosomies). La grande majorité des ovocytes artificiels ainsi obtenus ne sont pas viables.
Dans cette étude, 82 ovocytes artificiels ont été produits par transfert nucléaire et mitoméiose, puis fécondés par l’injection de spermatozoïde à l’intérieur de l’ovocyte. La grande majorité des embryons n’a pas progressé au-delà du stade de 4 à 8 cellules. Parmi ces ovocytes fécondés, seulement environ 9 % ont atteint le stade du sixième jour du développement embryonnaire, mais dont la viabilité et la compatibilité avec une future implantation restent à démontrer. Tous présentaient cependant des anomalies majeures dont des défauts de ségrégation chromosomique ayant entraîné des aneuploïdies, c’est-à-dire des déséquilibres dans le nombre de chromosomes.
Ces anomalies sont aggravées par l’absence de recombinaison génétique normalement assurée lors d’une méiose naturelle, ce qui compromet le développement embryonnaire. En effet, lors de la reproduction humaine, la recombinaison génétique pendant la méiose permet des échanges de fragments d’ADN des chromosomes paternels et maternels, offrant à chaque enfant un patrimoine génétique unique, ce qui favorise la diversité et la santé des individus. Malgré un taux limité de fécondation et quelques embryons atteignant un stade avancé, les anomalies génétiques constatées empêchent donc à ce jour la production d’embryons viables à partir d’ovocytes synthétiques humains.
L’utilisation expérimentale de ces ovocytes artificiels issus de cellules somatiques soulève des interrogations qu’il est nécessaire d’anticiper avant toute application clinique et qui doivent faire l’objet d’évaluations complémentaires. À ce jour, aucun pays n’autorise l’application clinique des gamètes artificiels.
En matière de consentement, il est nécessaire de définir qui contrôle l’usage des cellules somatiques utilisées pour produire des gamètes et quels sont les droits des enfants issus de ces techniques, notamment concernant leur accès à l’information sur leurs origines génétiques.
La sécurité et la santé des enfants représentent un autre enjeu fondamental. Les risques épigénétiques et génomiques liés à ces gamètes de synthèse sont encore mal connus. Il existe notamment une possibilité d’altérations de l’empreinte génétique : un mécanisme où certains gènes ne s’expriment que s’ils viennent du père ou de la mère. Ce dernier est crucial pour le développement normal, car un défaut de cette empreinte peut provoquer des maladies génétiques.
Les gamètes artificiels humains, comme les embryons humains de synthèse, posent des problèmes inédits, même si les régimes légaux de ces derniers sont différents. Le recours à ces nouvelles méthodes pourrait conduire à une multiplication d’embryons créés pour la recherche ou la validation technique.
En France, la loi de bioéthique interdit la création d’embryons à des fins de recherche : la recherche ne peut porter que sur des embryons conçus in vitro dans le cadre d’une assistance médicale à la procréation, qui ne font plus l’objet d’un projet parental, et dans le respect d’un cadre réglementaire strict (autorisation, pertinence scientifique, finalité médicale ou amélioration des connaissances, interdiction de culture au-delà de quatorze jours).
Ces méthodes ouvrent des perspectives pour offrir des possibilités thérapeutiques à la perte fonctionnelle des ovaires, mais aussi des opportunités de comprendre les toutes premières étapes du développement humain et d’explorer la réparation ou la création de tissus humains pour d’autres usages médicaux, au-delà de la reproduction. Chaque innovation scientifique relative au domaine de l’embryon humain ou de la reproduction doit conduire à de nouvelles exigences sur un encadrement juridique strict, une réflexion collective et une gouvernance transparente pour garantir le respect des droits des personnes et des principes fondamentaux des droits humains.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.10.2025 à 15:59
Jean-Lou Justine, Professeur, UMR ISYEB (Institut de Systématique, Évolution, Biodiversité), Muséum national d’histoire naturelle (MNHN)
Archie K. Murchie, Agricultural entomologist, Agri Food and Biosciences Institute
Leigh Winsor, Adjunct Senior Research Fellow, James Cook University
Romain Gastineau, Professeur assistant (Institut des sciences de la mer et de l'environnement), University of Szczecin
Les vers plats terrestres (ou, plathelminthes) causent d’importants dégâts écologiques en France, car ces espèces n’ont pas de prédateurs dans l’Hexagone. La découverte très récente de parasites va-t-elle permettre de lutter contre ces espèces ?
Depuis une dizaine d’années, nous étudions l’invasion de la France et de l’Europe par des vers plats terrestres (ou, plathelminthes). Ces animaux exotiques, généralement longs comme le doigt, sont arrivés en Europe par l’intermédiaire du transport des plantes en pots. Une dizaine d’espèces sont maintenant chez nous, venant principalement de l’hémisphère Sud (Argentine, Australie, Nouvelle-Guinée, Asie du Sud-Est). Elles se sont largement installées dans les jardins, en particulier Obama nungara, désormais présent dans plus de 70 départements. D’autres sont aussi connues du public, comme Bipalium kewense, qui peut atteindre une trentaine de centimètres, ou Vermiviatum covidum.
Quand une espèce envahit un écosystème, elle provoque souvent toute une série de problèmes écologiques. Les plathelminthes terrestres sont des prédateurs, et on sait qu’ils consomment (en particulier dans le cas d’Obama nungara) les vers de terre, ces précieux alliés du jardinier pour la fertilité des sols.
À lire aussi : L’invasion des vers plats est loin d’être terminée
Et là, se pose la question, comment lutter contre ces envahisseurs ? Aucun produit chimique n’étant homologué ni même testé, oublions immédiatement cette solution. Des prédateurs qui mangeraient ces vers ? On n’en connaît pas en Europe. Des parasites qui pourraient limiter leur prolifération ? Inconnus aussi.
Les scientifiques qui étudient les invasions considèrent généralement qu’une espèce envahissante abandonne derrière elle prédateurs et parasites en arrivant dans un nouveau territoire, ce qui supprime tout frein à sa prolifération : c’est la théorie du « relâchement de la pression des ennemis ». C’est bien le cas des plathelminthes terrestres en France et en Europe.
Nous avons sursauté quand nous avons trouvé les premières traces de parasites dans des plathelminthes terrestres envahissants. Mais, comme vous allez le lire, cette découverte n’a pas été aussi facile qu’on pourrait l’imaginer.
Nous n’avons pas vu ces parasites. Comment, alors, ont-ils été découverts ? Nous faisons, depuis plusieurs années, une analyse moléculaire des plathelminthes terrestres. En particulier, nous avons décrit, non pas le génome entier, ce qui serait très long et coûteux, mais le génome mitochondrial de plus d’une dizaine d’espèces.
Le génome mitochondrial, ou mitogénome, est celui qui permet aux mitochondries, ces petits éléments présents dans toutes les cellules, de fonctionner. Chez les plathelminthes, les organes sont noyés dans un tissu mou appelé parenchyme. Ainsi, lorsqu’on analyse un individu, on obtient non seulement son propre ADN, mais aussi celui de ses proies présentes dans l’intestin. Cela permet de mieux comprendre leur régime alimentaire en identifiant les espèces consommées.
Nous voilà donc faisant une analyse de routine sur deux espèces trouvées en Irlande du Nord, Kontikia andersoni et Australoplana sanguinea. Ces deux espèces viennent d’Australie et de Nouvelle-Zélande et ont envahi les îles Britanniques, mais pas (encore) l’Europe continentale. Les analyses ont rapidement permis de caractériser les mitogénomes des plathelminthes et de déterminer leurs proies, qui sont, dans les deux cas, des vers de terre. Mais une surprise nous attendait.
Dans chacune des espèces de plathelminthes, nous avons trouvé un signal moléculaire d’une espèce du genre Mitosporidium. Jusqu’ici, le genre Mitosporidium ne contenait qu’une seule espèce, Mitosporidium daphniae, qui est un parasite des daphnies, des petits crustacés d’eau douce. Mitosporidium est très original : c’est une microsporidie « primitive ». Que sont les microsporidies ? Des parasites unicellulaires.
Une microsporidie est devenue tristement célèbre dans les années 1980, Enterocytozoon bieneusi, qui infectait les patients atteints du sida dont l’immunité était compromise. Avant la génétique moléculaire, on classait les microsporidies dans les « protozoaires » et on les reconnaissait par leurs spores très caractéristiques. On a depuis compris que ce sont des champignons très modifiés par le parasitisme, en particulier par la perte des mitochondries.
Comme mentionné plus haut, les mitochondries sont des organites présents dans toutes les cellules des eucaryotes, mais les microsporidies, qui vivent dans les cellules de leurs hôtes, n’en ont plus besoin et s’en sont débarrassées.
Mais la nature aime les exceptions, et les scientifiques aiment les exceptions quand elles permettent de mieux comprendre la nature… Mitosporidium daphniae a toutes les caractéristiques d’une microsporidie, sauf qu’elle a conservé un génome de mitochondrie. C’est pour cela que l’on considère cette espèce comme « basale » : elle représenterait une étape de l’évolution des champignons vers les microsporidies, en ayant déjà la morphologie et la vie intracellulaire d’une microsporidie, mais en ayant gardé le mitogénome.
Et donc, nous avons trouvé deux nouvelles espèces de Mitosporidium, une dans chaque espèce de ver plat. Rien que le fait de faire passer ce genre d’une seule espèce à trois était déjà une découverte significative ; la seule espèce connue avait été décrite en 2014, et aucune depuis.
Un gros problème est apparu. Pour des raisons techniques, nous n’avons pas vu les microsporidies. On ne les reconnaît facilement que quand elles sont au stade de spores, et les autres stades, dans les tissus de l’hôte, sont difficiles à détecter. Et puis surtout, la question a été : de qui sont parasites ces microsporidies ? Rappelez-vous, notre analyse a été faite sur un mélange de tissus : tissus du plathelminthe prédateur et tissus du ver de terre dans son intestin. Ces Mitosporidium étaient-ils des parasites des plathelminthes eux-mêmes ou de leurs proies, les vers de terre ?
Pour l’instant, nous ne pouvons pas trancher définitivement, mais un principe biologique nous guide : la spécificité parasitaire. En effet, un parasite est souvent associé à une seule espèce d’hôte. Or, dans chaque plathelminthe terrestre étudié, nous avons trouvé une espèce unique de Mitosporidium.
Deux hypothèses sont possibles. Soit ces parasites viennent des vers de terre que les plathelminthes consomment – mais il faudrait alors admettre un hasard improbable : que chaque plathelminthe ait mangé une seule espèce de ver de terre, elle-même infectée par son parasite spécifique. Soit, plus simplement, chaque plathelminthe possède son propre Mitosporidium. C’est cette seconde hypothèse qui nous paraît la plus plausible, en attendant des analyses plus larges.
Nous supposons, donc, maintenant avoir découvert des parasites de vers plats envahissants. Selon la théorie générale du « relâchement de la pression des ennemis », un moyen de se débarrasser d’une espèce envahissante est de l’infecter par un parasite ou par un pathogène qui va réduire ses populations. Un exemple classique est celui du lapin en Australie : libéré de ses prédateurs et parasites, il s’est multiplié de façon incontrôlable et seule l’introduction de la myxomatose a permis de réduire un peu sa population. Mais ce n’est pas toujours facile : pour le frelon asiatique, envahissant en Europe, plusieurs parasites ont été identifiés, sans qu’aucun ne puisse freiner réellement son expansion.
Introduire des microsporidies pour réduire les populations de plathelminthes terrestres envahissants ? Une idée séduisante, mais nous en sommes très loin.
D’abord, comme expliqué plus haut, nous ne sommes pas encore sûrs que les Mitosporidium soient des parasites de plathelminthes. Ensuite, on ne sait pas du tout s’ils sont pathogènes ! La seule espèce connue avant notre travail, Mitosporidium daphniae, n’a qu’une petite influence négative sur la fertilité des daphnies infectées. Des années de recherche sont encore nécessaires.
Jean-Lou Justine est Rédacteur-en-Chef de Parasite, la revue scientifique de la Société Française de Parasitologie, dans laquelle a été publiée cette étude. Toutes les précautions éthiques ont été prises, en suivant les recommandations de COPE https://publicationethics.org/ .
Archie K. Murchie a reçu des financements du Department of Agriculture, Environment & Rural Affairs, Northern Ireland
Romain Gastineau a reçu des financements du ministère de la recherche et de l'éducation de Pologne.
Leigh Winsor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.10.2025 à 16:48
Stéphanie Balme, Director, CERI (Centre de recherches internationales), Sciences Po
Stéphanie Balme a mené pour France Universités une étude intitulée « Défendre et promouvoir la liberté académique : un enjeu mondial, une urgence pour la France et l’Europe. Constats et 65 propositions d’action ». Elle en livre ici quelques enseignements.
Dévoilé officieusement le 2 octobre 2025, le Compact for Academic Excellence in Higher Education de Donald Trump illustre de manière paroxystique la politisation du savoir et la volonté de contrôle idéologique de la production scientifique aux États-Unis. Derrière le discours de « restauration de l’excellence » se profile une nouvelle étape dans l’institutionnalisation du sciento-populisme : la défiance envers la science y est exploitée de manière stratégique afin de flatter les affects populistes et de transformer les universitaires en boucs émissaires, rendus responsables du « déclin » de l’hégémonie civilisationnelle américaine.
Ce phénomène, bien que caricatural, n’est pas isolé. Simultanément à l’annonce de Donald Trump, l’édition 2025 du Global Innovation Index (GII) révèle que la Chine intègre pour la première fois le top 10 des nations les plus innovantes, tandis que les États-Unis, encore troisièmes, montrent des fragilités structurelles. Huit pays européens, fait trop peu connu, figurent parmi les quinze premiers de ce classement. La France, quant à elle, est rétrogradée mais conserve néanmoins la treizième place, celle qu’occupait la Chine trois ans auparavant.
Les 80 indicateurs du GII, couvrant près de 140 pays, ne se limitent pas à mesurer la performance technologique ou scientifique : ils évaluent également la capacité des États à garantir un environnement politico-institutionnel, économique et financier complet, libre et sûr. En croisant ces données avec celles de l’Academic Freedom Index, principal outil de référence élaboré depuis 2019, on constate que la liberté académique n’est plus uniquement menacée dans les régimes autoritaires. Elle se fragilise désormais au cœur même des démocraties, affectant à parts égales les sciences humaines et sociales et les sciences expérimentales.
L’attribution du prix Nobel d’économie 2025 à Philippe Aghion, Peter Howitt et Joel Mokyr rappelle opportunément que la croissance et l’innovation reposent sur un écosystème fondé sur la liberté de recherche et la circulation des idées. Leurs travaux sur les conditions historiques et structurelles du progrès technologique montrent qu’aucune économie ne peut prospérer durablement lorsque la connaissance est contrainte ou soumise à un contrôle idéologique.
Paradoxalement, les régimes autoritaires comptent aujourd’hui parmi les principaux investisseurs dans la recherche, dont ils orientent néanmoins strictement les finalités selon leurs priorités politiques. Engagés dans une phase ascendante de développement technonationaliste, ils investissent massivement dans la science et la technologie comme instruments de puissance, sans encore subir les effets corrosifs de la défiance envers le savoir.
Les démocraties, à l’inverse, peinent à financer la recherche tout en soutenant leurs dépenses de défense et doivent affronter la montée de mouvements contestant la légitimité même de la science telle qu’elle se pratique. C’est afin de mieux comprendre ces dynamiques que j’ai conduit pour France Universités une étude intitulée « Défendre et promouvoir la liberté académique : un enjeu mondial, une urgence pour la France et l’Europe. Constats et 65 propositions d’action ».
La France illustre particulièrement les vulnérabilités décrites plus haut. En 2024‑2025, les atteintes à la liberté académique y ont pris des formes multiples : ingérences étrangères accrues, conditionnement des financements publics régionaux à des chartes aux critères flous, pressions idéologiques sur les contenus d’enseignement et de recherche, annulations de conférences, campagnes de stigmatisation d’enseignants-chercheurs sur les réseaux sociaux, interventions de responsables politiques jusque dans les conseils d’administration d’universités, restrictions d’accès aux terrains ou à des bourses de recherche, et enfin, multiplication des procédures-bâillons.
Contrairement à d’autres droits fondamentaux, la liberté académique en France se distingue par l’absence d’une culture politique, professionnelle et citoyenne solidement enracinée. Les universitaires victimes d’atteintes dans leur liberté d’exercer leur métier se retrouvent souvent isolés, tandis que la capacité institutionnelle des universités à jouer un rôle de contre-pouvoir demeure limitée.
Cette vulnérabilité est aggravée par la dépendance aux financements publics, la précarisation des carrières, la surcharge administrative et l’absence d’autonomie institutionnelle réelle. Néanmoins, cette fragilité actuelle pourrait se transformer en levier de refondation, favoriser l’émergence d’une culture solide de la liberté académique et, ce faisant, renforcer la position de la France dans la géopolitique scientifique mondiale.
L’étude pour France Universités propose une stratégie proactive articulée autour de plusieurs axes complémentaires, visant quatre catégories d’acteurs : l’État, les universités, la société civile et l’échelon européen.
Le premier axe concerne le renforcement du socle juridique : constitutionnaliser la liberté académique, réaffirmer l’autonomie des établissements et l’indépendance des personnels ; enfin, reconnaître le principe du secret des sources comme pour les journalistes et intégrer un régime spécifique dans le Code de la recherche pour les données sensibles. Il est également proposé d’étendre le dispositif de protection du potentiel scientifique et technique de la nation (PPST) aux sciences humaines et sociales en intégrant les risques d’ingérence pour concilier sécurité et liberté scientifiques.
Le deuxième axe porte sur l’action des universités : coordonner les initiatives à l’échelle nationale via un organisme indépendant, généraliser les chartes de liberté académique dans l’ensemble des établissements et organismes de recherche, renforcer la protection fonctionnelle des enseignants grâce à un fonds national dédié et instaurer des protocoles d’assistance rapide. Il prévoit également la création d’un observatoire indépendant des atteintes à la liberté académique, la formation des directions et des référents à ces enjeux, ainsi que la coordination d’un soutien juridique, psychologique et numérique pour les universitaires pris pour cibles. Enfin, cet axe vise à favoriser une collaboration croisée entre fonctionnaires sécurité‑défense et chercheurs et enseignants-chercheurs.
Le troisième axe vise à promouvoir une véritable culture de la liberté académique dans l’espace public : lancer une campagne nationale de sensibilisation, encourager les initiatives étudiantes, transformer la Fête de la science en Fête de la science et de la liberté académique, organiser des États généraux pour définir un plan d’action participatif, et déployer une vaste campagne de valorisation de la recherche en partenariat avec l’ensemble des opérateurs, à commencer par le CNRS. Cette campagne, appuyée sur des supports visuels, des affiches, des dessins et un hashtag fédérateur, doit célébrer la recherche dans tous les médias et rappeler son rôle essentiel au service d’une société démocratique.
Le quatrième et dernier axe vise à inscrire ces mesures dans la diplomatie scientifique européenne, en rétablissant un classement européen des universités du monde entier intégrant un indice de liberté académique, et en œuvrant à son inclusion dans les grands classements internationaux ; renforcer la coopération entre l’Association européenne des universités et les alliances universitaires européennes ; instaurer un observatoire européen de la liberté académique ; créer un passeport européen des talents pour les chercheurs réfugiés ; faire de l’Europe un espace-refuge pour les scientifiques en danger, jusqu’à obtenir, à terme, une reconnaissance sous la forme d’un prix Nobel de la paix dédié à la liberté académique.
Défendre la liberté académique n’est pas un réflexe corporatiste : c’est, au contraire, protéger un bien commun précieux et la condition même d’une démocratie vivante. Ce droit n’appartient qu’à un petit nombre, certes, mais il profite à toutes et à tous, à l’instar de la liberté de la presse, garantie par la loi de 1881. Contrairement à une idée reçue, les universitaires sont souvent les derniers à défendre leur droit professionnel, quand les journalistes, à juste titre, protègent activement le leur.
Le système universitaire français, tel qu’il s’est construit depuis 1945, et plus encore après 1968, n’a pas été pensé pour affronter l’autoritarisme. Aujourd’hui, les établissements français ne seraient pas en mesure de résister très longtemps à des attaques systématiques en cas d’arrivée au pouvoir d’un régime populiste et/ou autoritaire. Puissantes, riches et autonomes, les universités de l’Ivy League ont elles-mêmes vacillé face au mouvement MAGA et peinent encore à s’en relever. De nombreux scientifiques américains rejoignent aujourd’hui l’Europe, le Japon ou la Corée du Sud.
Comment, dès lors, les universités françaises, à la fois financièrement et institutionnellement dépendantes, et ne disposant que d’associations d’anciens élèves (alumni) encore récentes, pourraient-elles faire face à un tel assaut ? Sans compter que ce serait, à terme, la fin de l’ambition portée par le programme Choose Europe For Science.
Malgré la gravité de la situation, celle-ci ouvre un espace inédit pour l’action collective, l’innovation démocratique et la construction de solutions concrètes. Il est désormais temps d’agir collectivement, de coordonner les acteurs et de lancer une vaste campagne nationale et européenne en faveur de la liberté académique : tel est l’objet de ce rapport.
Stéphanie Balme ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.10.2025 à 11:41
Ian Towle, Research Fellow in Biological Anthropology, Monash University
Luca Fiorenza, Senior Lecturer in Anatomical Sciences, Monash University

Une étude sur plus de 500 primates sauvages montre que les « sillons de cure-dents » sur les dents fossiles peuvent se former naturellement, tandis que certaines pathologies modernes, comme les abfractions, sont propres aux humains.
Depuis des décennies, de fines rainures observées sur des dents humaines préhistoriques étaient interprétées comme la preuve d’un geste délibéré : des humains nettoyant leurs dents à l’aide de petits bâtons ou de fibres végétales, ou cherchant à soulager une douleur gingivale. Certains chercheurs y ont même vu la plus vieille habitude humaine.
Mais selon une étude publiée dans l’American Journal of Biological Anthropology, cette hypothèse serait à revoir. Les auteurs ont constaté que ces mêmes stries apparaissent aussi naturellement chez des primates sauvages, sans qu’aucun comportement de curetage dentaire ne soit observé. Encore plus surprenant : l’analyse de plus de 500 primates, appartenant à 27 espèces vivantes ou fossiles, n’a révélé aucune trace d’une maladie dentaire fréquente chez l’humain moderne, les lésions dites d’abfraction – ces entailles profondes en forme de V au niveau de la gencive.
Ces découvertes invitent à repenser l’interprétation des fossiles et ouvrir de nouvelles pistes sur ce qui, dans l’usure et les pathologies de nos dents, témoigne d’une évolution proprement humaine.
Les dents sont la partie la plus résistante du squelette et survivent souvent bien après la décomposition du reste du corps. Les anthropologues s’en servent pour reconstituer les régimes alimentaires, les modes de vie et l’état de santé des populations anciennes.
Même les plus petites marques peuvent avoir une grande signification. L’une des plus fréquentes est une fine rainure qui traverse la racine exposée de certaines dents, souvent entre deux d’entre elles. Depuis le début du XXᵉ siècle, ces traces ont été baptisées « marques de cure-dent » et interprétées comme les signes d’un usage d’outils ou de pratiques d’hygiène dentaire.
On en a signalé tout au long de notre histoire évolutive, sur des fossiles vieux de deux millions d’années jusqu’aux Néandertaliens. Mais jusqu’ici, personne n’avait réellement vérifié si d’autres primates présentaient ces mêmes marques. Une autre affection, appelée abfraction, se manifeste différemment : par des entailles profondes en forme de coin à la base de la gencive. Très fréquentes en dentisterie moderne, elles sont souvent associées au grincement des dents, à un brossage trop vigoureux ou à la consommation de boissons acides. Leur absence sur les fossiles connus intrigue depuis longtemps les chercheurs : les autres primates en sont-ils vraiment exempts ?
Pour vérifier ces hypothèses, nous avons analysé plus de 500 dents appartenant à 27 espèces de primates, actuelles et fossiles. L’échantillon comprenait notamment des gorilles, des orang-outans, des macaques, des colobes et plusieurs singes disparus. Fait essentiel, tous les spécimens provenaient de populations sauvages, ce qui signifie que l’usure de leurs dents n’a pas pu être influencée par les brosses à dents, les boissons gazeuses ou les aliments transformés.
Nous avons recherché des lésions cervicales non carieuses – un terme désignant une perte de tissu au niveau du col de la dent qui n’est pas causée par la carie. À l’aide de microscopes, de scanners 3D et de mesures de perte de tissu, nous avons documenté même les plus petites lésions.
Environ 4 % des individus présentaient des lésions. Certaines ressemblaient presque exactement aux classiques « sillons de cure-dents » observés sur les fossiles humains fossiles, avec de fines rayures parallèles et des formes effilées. D’autres lésions étaient peu profondes et lisses, surtout sur les dents de devant, probablement causées par les fruits acides que beaucoup de primates consomment en grande quantité.
Mais une absence nous a frappé. Nous n’avons trouvé aucune lésion par abfraction. Malgré l’étude d’espèces ayant une alimentation extrêmement dure et des forces de mastication puissantes, aucun primate n’a présenté les défauts en forme de coin si couramment observés dans les cliniques dentaires modernes.
Premièrement, cela signifie que les sillons ressemblant à des marques de cure-dents ne prouvent pas nécessairement l’utilisation d’outils. La mastication naturelle, les aliments abrasifs, ou même le sable ingéré peuvent produire des motifs similaires. Dans certains cas, des comportements spécialisés, comme arracher de la végétation avec les dents, peuvent également y contribuer. Il faut donc rester prudent avant d’interpréter chaque sillon fossile comme un acte délibéré de curetage dentaire.
Deuxièmement, l’absence totale de lésions par abfraction chez les primates suggère fortement qu’il s’agit d’un problème propre aux humains, lié à nos habitudes modernes. Elles sont beaucoup plus probablement causées par un brossage trop vigoureux, les boissons acides et les régimes alimentaires transformés que par les forces de mastication naturelles. Cela place les abfractions aux côtés d’autres problèmes dentaires, comme les dents de sagesse incluses ou les dents mal alignées, qui sont rares chez les primates sauvages mais fréquents chez l’homme aujourd’hui. Ces observations alimentent un domaine de recherche émergent appelé odontologie évolutive, qui utilise notre passé évolutif pour comprendre les problèmes dentaires actuels.
À première vue, les sillons sur les dents fossiles peuvent sembler anecdotiques. Pourtant, ils ont une importance à la fois pour l’anthropologie et pour la dentisterie. Pour la science évolutive, ils montrent qu’il est essentiel d’observer nos plus proches parents avant de conclure à une explication culturelle spécifique ou unique. Pour la santé moderne, ils mettent en évidence à quel point nos régimes alimentaires et nos modes de vie modifient profondément nos dents, nous distinguant des autres primates.
En comparant les dents humaines à celles des autres primates, il devient possible de distinguer ce qui est universel (l’usure inévitable due à la mastication) de ce qui est propre à l’homme – le résultat des régimes alimentaires, des comportements et des soins dentaires modernes.
Les recherches futures porteront sur des échantillons plus larges de primates, examineront les liens entre régime alimentaire et usure dentaire dans la nature, et utiliseront des techniques d’imagerie avancées pour observer la formation des lésions. L’objectif est d’affiner notre interprétation du passé tout en découvrant de nouvelles façons de prévenir les maladies dentaires aujourd’hui.
Ce qui peut ressembler à un sillon de cure-dents sur une dent humaine fossile pourrait tout aussi bien être un simple sous-produit de la mastication quotidienne. De même, il pourrait refléter d’autres comportements culturels ou alimentaires laissant des marques similaires. Pour démêler ces possibilités, il faut disposer de jeux de données comparatifs beaucoup plus larges sur les lésions des primates sauvages ; ce n’est qu’ainsi que l’on pourra identifier des tendances générales et affiner nos interprétations du registre fossile.
Parallèlement, l’absence de lésions par abfraction chez les primates suggère que certains de nos problèmes dentaires les plus courants sont propres à l’homme. Cela rappelle que même dans quelque chose d’aussi quotidien qu’un mal de dents, notre histoire évolutive est inscrite dans nos dents, mais façonnée autant par nos habitudes modernes que par notre biologie ancienne.
Ian Towle reçoit un financement du Conseil australien de la recherche (Australian Research Council, ARC DP240101081).
15.10.2025 à 11:41
Maria Ahmad, PhD Candidate, Cognitive Neuroscience, Psychology and Language Sciences, UCL

Un plongeon au cœur de l’océan Pacifique pour comprendre comment, sans instruments ni technologie, les navigateurs des îles Marshall lisaient les vagues, le vent et les étoiles pour retrouver leur chemin, et comment les neurosciences modernes tentent de décrypter ce savoir ancestral.
L’un des plus grands défis de la navigation consiste à savoir où l’on se trouve au milieu de l’océan, sans le moindre instrument. Cette aptitude extraordinaire est illustrée par les techniques ancestrales qu’utilisaient autrefois les navigateurs chevronnés des îles Marshall, un chapelet d’îles et d’atolls coralliens situés entre Hawaï et les Philippines.
Aux côtés d’un neuroscientifique spécialiste de la cognition, d’un philosophe, d’une anthropologue marshallaise et de deux marins autochtones, j’ai pris part à une expédition destinée à comprendre comment les navigateurs marshallais se repèrent en mer grâce à leur environnement. À bord du Stravaig, un trimaran (une embarcation à trois coques) de douze mètres, le vent et les vagues nous ont portés sur soixante milles nautiques, de l’atoll de Majuro à celui d’Aur.
Durant les six années que j’ai vécues aux îles Marshall, je n’avais jamais dépassé Eneko, un petit îlot situé à l’intérieur du lagon de Majuro. J’étais sans cesse ramenée au récif, là où le lagon rejoint l’océan, observant l’écume blanche se former lorsque les vagues se brisaient contre la barrière qui protégeait l’atoll.
C’est la connaissance intime de ces vagues que le « ri meto » – littéralement « la personne de la mer », titre conféré par le chef au navigateur – consacrait sa vie à maîtriser. En percevant les infimes variations de la houle, le « ri meto » pouvait déterminer la direction et la distance d’îles situées à des milliers de kilomètres au-delà de l’horizon.
Grâce à ce savoir ancestral, le « ri meto » maîtrisait l’une des compétences les plus extraordinaires jamais acquises par l’être humain : la navigation dans le Pacifique. Mais l’histoire tragique des îles Marshall a fait disparaître cette pratique, et il n’existe aujourd’hui plus aucun « ri meto » officiellement reconnu.
Alson Kelen est l’élève du dernier « ri meto » connu. Ses parents ont été déplacés de l’atoll de Bikini, au nord de l’archipel, lors du programme nucléaire américain qui a fait exploser soixante-sept bombes atomiques et thermonucléaires dans les îles Marshall dans les années 1940 et 1950.
Au-delà des destructions et des souffrances immenses qu’il a provoquées, ce programme a brisé la transmission intergénérationnelle des savoirs traditionnels, notamment celui de la navigation. Dans le cadre des efforts de renaissance menés par l’anthropologue Joseph Genz, Alson Kelen a, en 2015, pris la barre du jitdaam kapeel, une pirogue traditionnelle marshallaise, pour rallier Majuro à Aur en s’appuyant uniquement sur les techniques de navigation ancestrales qu’il avait apprises auprès de son maître.
Inspirée par cette expérience, je me suis interrogée sur le rôle que les neurosciences pouvaient jouer dans la compréhension de l’orientation en mer. Des travaux de recherche sur la navigation spatiale ont montré comment les processus neuronaux et cognitifs du cerveau nous aident à nous repérer. La plupart de ces études portent toutefois sur la navigation terrestre, menée en laboratoire ou dans des environnements contrôlés à l’aide de jeux vidéo ou de casques de réalité virtuelle. En mer, les exigences cognitives sont bien plus grandes : il faut composer avec des facteurs en constante évolution, comme la houle, le vent, les nuages et les étoiles.
Directeur de Waan Aelon in Majel, une école locale de construction et de navigation de pirogues, Alson Kelen a choisi deux marins traditionnels chevronnés pour se joindre à notre expédition de recherche.
À l’approche du chenal, les vagues régulières du lagon ont laissé place à la houle plus lourde de l’océan qui frappait la coque. L’équipage a resserré les cordages, les voiles ont été hissées. Soudain, j’ai senti la houle dominante venue de l’est soulever le bateau. Nous venions de quitter le calme du lagon et mettions le cap sur l’atoll d’Aur.
Pendant les deux jours suivants, le Stravaig est devenu notre laboratoire flottant. Durant plus de quarante heures, nous avons recueilli des données cognitives et physiologiques sur les neuf membres de l’équipage, ainsi que des données environnementales continues dans un milieu en perpétuelle évolution.
Nous avons demandé à chacun de suivre sa position estimée tout au long du voyage. Seuls deux membres de l’équipage – le capitaine et son second – avaient accès au GPS à intervalles réguliers ; les autres se fiaient uniquement à l’environnement et à leur mémoire. Toutes les heures, chaque membre indiquait sur une carte l’endroit où il pensait se trouver, ainsi que ses estimations du temps et de la distance restant avant d’apercevoir les premiers signes de terre, puis avant l’arrivée sur l’atoll. Ils notaient également tous les repères environnementaux utilisés, tels que les vagues, le vent ou la position du soleil.
L’équipage évaluait également quatre émotions clés tout au long du trajet : bonheur, fatigue, inquiétude et mal de mer. Chaque membre portait une montre connectée Empatica, qui enregistrait les variations de fréquence cardiaque.
Un accéléromètre était fixé sur le pont supérieur pour enregistrer les mouvements du bateau au gré des vagues. Une caméra GoPro 360° montée séparément capturait les variations des voiles, des nuages, du soleil et de la lune, ainsi que les déplacements de l’équipage sur le pont.
Juste avant que le dernier morceau de terre ne disparaisse sous l’horizon, chaque membre de l’équipage a désigné cinq atolls : Jabwot, Ebeye, Erikub, Aur Tabal, Arno et Majuro. Une boussole recouverte servait à enregistrer les relevés. Cette opération a été répétée tout au long du voyage afin de tester les compétences d’orientation sans référence à la terre.
À la fin de cette traversée, nous disposions d’une riche collection de données mêlant expériences subjectives et mesures objectives de l’environnement. Chaque estimation tracée sur la carte, chaque émotion, chaque variation de fréquence cardiaque était enregistrée en parallèle des changements de houle, de vent, de ciel et des relevés GPS. Ces nouvelles données constituent la base d’un modèle capable de commencer à expliquer le processus cognitif de l’orientation en mer, tout en offrant un aperçu de cette capacité humaine ancestrale que le « ri meto » maîtrisait depuis longtemps.
Ce projet de recherche est dirigé par le professeur Hugo Spiers, professeur de neurosciences cognitives à l’University College London. L’équipe de recherche comprend : Alson Kelen, directeur de Waan Aelon in Majel ; le professeur Joseph Genz, anthropologue à l’Université de Hawaï à Hilo ; le professeur John Huth Donner, professeur de physique à Harvard University ; le professeur Gad Marshall, professeur de neurologie à la Harvard Medical School ; le professeur Shahar Arzy, professeur de neurologie à l’Université hébraïque de Jérusalem ; le Dr Pablo Fernandez Velasco, postdoctorant financé par la British Academy à l’Université de Stirling ; Jerolynn Neikeke Myazoe, doctorante à l’Université de Hawaï à Hilo ; Clansey Takia et Binton Daniel, instructeurs de navigation et de construction de pirogues traditionnelles WAM ; Chewy C. Lin, réalisateur de documentaires ; et Dishad Hussain, directeur chez Imotion Films. Ce projet a été soutenu par le Royal Institute of Navigation, l’University College London, le Centre for the Sciences of Place and Memory de l’Université de Stirling (financé par le Leverhulme Trust), le Royal Veterinary College, Glitchers, Neuroscience & Design, Empatica, Imotion et Brunton.
15.10.2025 à 11:41
Jonathan Biteau, Maître de conférence en physique des astroparticules, Université Paris-Saclay

Les humains utilisent les astres pour se repérer depuis la nuit des temps. Aujourd’hui, la précision de nos systèmes de géolocalisation dépend des blazars, ces phares cosmiques qui abritent des trous noirs. Découvrons leurs mystères en nous aidant de l’analogie avec les phares qui ponctuent la côte et qui guident les marins dans la nuit.
Depuis la plage du Prat, au cœur de l’île d’Ouessant (Finistère), on aperçoit l’imposant phare du Créac’h au-dessus des flots. Par nuit claire, le phare de Créac’h est visible à plus de 32 milles marins (environ 60 kilomètres). Considéré comme le phare le plus puissant d’Europe, le Créac’h est un guide inestimable pour les équipages des bateaux, suppléant aux systèmes de navigation par satellite utilisés en cabine.
De nos jours, nous utilisons quotidiennement le positionnement par satellite via nos téléphones portables. Cependant, nous oublions souvent que la précision de ces systèmes de localisation repose sur des principes de physique fondamentale et des mesures d’astronomie de pointe.
Dans le passé, les marins utilisaient comme points de référence l’étoile Polaire ou des galaxies proches, telles que les nuages de Magellan situés à quelques centaines de milliers d’années-lumière. Le positionnement des satellites repose quant à lui sur l’utilisation de points lumineux sur la voûte céleste dont la direction est suffisamment stable. Les points de référence les plus stables connus sont des balises cosmiques situées à plusieurs milliards d’années-lumière. Leurs noms ? Les blazars.
Les théories de la relativité générale et restreinte d’Einstein sont au cœur de notre compréhension des blazars. Le feu d’un phare comme le Créac’h est constitué de puissantes lampes halogènes dont le faisceau est concentré par des lentilles de Fresnel.
Un blazar est quant à lui constitué de deux faisceaux, des jets faits de plasma se déplaçant à plus de 99,5 % de la vitesse de la lumière. Contrairement aux faisceaux de phares, les jets de blazars ne tournent pas : ils restent relativement stables du point de vue de l’observateur.
À l’origine de ces jets se trouve un trou noir des milliers de fois plus massif que celui situé au centre de notre galaxie. C’est la rotation du trou noir sur lui-même et celle du disque de matière l’entourant qui permettent d’injecter de l’énergie dans les jets. La source d’énergie à l’origine de la lumière d’un blazar est donc paradoxalement un trou noir !
Ces jets astrophysiques sont observés dans des galaxies proches comme la radiogalaxie Messier 87. Depuis la Terre, les deux jets de cette galaxie sont observés de biais. L’un des deux jets est plus brillant car le plasma qu’il émet a tendance à s’approcher de nous, tandis que le plasma émis par l’autre jet s’éloigne. Plus l’angle entre le faisceau du phare et notre ligne de visée (l’axe entre le phare et l’observateur) est grand, plus la lumière que nous recevons du faisceau est faible. Mais que se passerait-il si l’un des jets était dirigé vers la Terre ? Nous observerions un phare extrêmement lumineux : un blazar. Une radio galaxie comme Messier 87 n’est donc rien d’autre qu’un blazar désaxé.
Un blazar, défini par l’orientation d’un de ses jets vers la Terre, peut ainsi être des dizaines de milliers de fois plus brillant qu’une radio galaxie située à la même distance.
Les lentilles de Fresnel du Créac’h concentrent la lumière de lampes halogènes en faisceaux de photons qui voyagent jusqu’aux équipages marins. Pour les blazars, c’est un plasma de particules énergétiques qui se propagent selon l’axe des jets. Ces particules perdent une partie de leur énergie en émettant de la lumière dans le domaine visible et en ondes radio, par rayonnement synchrotron. C’est ce même rayonnement qui limite les énergies qu’atteignent les accélérateurs de particules construits sur Terre, tel le grand collisionneur de hadrons (LHC) du CERN.
Mais si les pertes synchrotron constituent un facteur limitant pour les ingénieurs de faisceaux de particules terrestres, elles offrent aux astronomes et physiciens des astroparticules une formidable fenêtre d’observation sur des phénomènes naturels autrement plus énergétiques que ceux des accélérateurs artificiels.
Ainsi, les pertes par rayonnement des blazars ne se limitent pas aux ondes radio et à la lumière visible. Elles s’étendent également aux rayons X et aux rayons gamma.
Les rayons gamma les plus énergétiques en provenance de blazars ont été observés à des énergies dix mille milliards de fois supérieures à celle des photons visibles. Les particules qui ont émis ces rayons gamma sont encore plus énergétiques, jusqu’à des millions de fois s’il s’agit de rayons cosmiques de type protons plutôt que d’électrons.
Identifier la nature des particules émettant les rayons gamma des blazars pourrait ainsi éclairer le mystère encore tenace de l’origine des rayons cosmiques et des neutrinos les plus énergétiques que nous observons.
Les blazars les plus éloignés émettent depuis une époque correspondant au premier milliard d’années suivant le Big Bang, dans un univers qui soufflera bientôt ses 14 milliards de bougies. La quantité de rayons gamma qui nous parvient des phares lointains est faible, non seulement en raison de leur distance, mais aussi à cause d’une brume un peu particulière qui imprègne même les régions les plus reculées du cosmos.
Par temps brumeux, le phénomène qui limite la portée du Créac’h est la diffusion de la lumière visible par les minuscules gouttelettes d’eau qui composent le brouillard. Le feu du phare, que les marins devraient voir comme une source quasi ponctuelle, apparaît comme une tâche de plus en plus diffuse à mesure qu’ils s’éloignent de la côte.
La portée des blazars émettant les rayons gamma les plus énergétiques est quant à elle limitée par un phénomène de physique des particules : l’annihilation de deux particules de lumière — un photon gamma et un photon de plus faible énergie — en une paire électron-positron. Pour les faisceaux gamma de blazars, la brume est donc faite de lumière !
Plus l’énergie du rayon gamma est élevée, et plus la distance du blazar qui l’émet est grande, plus l’atténuation du flux reçu est importante. Les photons de faible énergie jouant le rôle de minuscules gouttelettes résultent de l’émission cumulée de toutes les étoiles et galaxies depuis le début de l’univers.
Jusqu’à récemment, la détection de ces « gouttelettes » représentait un véritable défi observationnel. Les trois techniques de mesure connues, dont celle qui exploite l’atténuation des rayons gamma, semblent désormais atteindre des valeurs compatibles entre elles, ouvrant la voie à de nouveaux outils cosmologiques pour répondre au paradoxe d’Olbers ou à la tension de Hubble.
Les blazars n’ont-ils donc plus aucun mystère pour nous ? Loin de là.
Alors que les phares maritimes clignotent à intervalles réguliers pour permettre aux équipages de les identifier, les blazars brillent de manière erratique, à l’image des cours boursiers fluctuant au fil des ans. Lors des éruptions les plus extrêmes, on a même observé le flux de blazars doubler en quelques minutes seulement ! Comprendre ces éruptions représente encore un défi pour l’astrophysique des hautes énergies et la physique des plasmas.
L’avènement d’observatoires comme le Vera C. Rubin Observatory dans le domaine visible et le Cherenkov Telescope Array Observatory en rayons gamma promet des avancées majeures dans la cartographie des éruptions de blazars. Tout en levant le voile de la brume cosmique, ces observations promettent de mieux comprendre les accélérateurs persistants les plus puissants du cosmos.
Jonathan Biteau a reçu des financements de l'Université Paris-Saclay et de l'Institut Universtaire de France.
15.10.2025 à 11:15
Élise Huchard, Directrice de recherche au CNRS, Université de Montpellier

Depuis Darwin et jusqu’à la fin des années 1990, les recherches sur les stratégies de reproduction des animaux s’intéressaient surtout aux mâles. Une prise de conscience a ensuite eu lieu, en réalisant qu’il pourrait être intéressant de ne pas seulement étudier la moitié des partenaires… C’est dans ce contexte de début de XXIe siècle qu’Élise Huchard démarre sa thèse sur les stratégies de reproduction des femelles babouins chacma, espèce qu’elle étudie depuis une vingtaine d’années grâce à un terrain de recherche en Namibie. Elle est aujourd’hui directrice de recherche au CNRS et travaille à l’Institut des sciences de l’évolution de Montpellier (Hérault). Ses travaux ont été récompensés en 2017 par la médaille de bronze du CNRS. La biologiste de l’évolution fait le point avec Benoît Tonson, chef de rubrique Science, sur ce que l’on sait des dominances mâles ou femelles chez les primates.
The Conversation France : Pourquoi, pendant près de 150 ans, les scientifiques ne se sont-ils intéressés qu’aux mâles ?
Élise Huchard : On peut remonter à Darwin et à son ouvrage, la Filiation de l’homme et la sélection liée au sexe. Ce livre succède au fameux De l’origine des espèces et va proposer la théorie de la sélection sexuelle pour expliquer certaines observations qui ne collent pas avec sa théorie de la sélection naturelle. L’exemple que prend Darwin, c’est la queue du paon. Comment cette queue peut-elle l’aider à survivre dans un monde rempli de prédateurs ? Du point de vue de la survie de l’individu, cela ressemble plutôt à un désavantage, et ce caractère n’aurait pas dû être sélectionné.
Mais il n’y a pas que la survie qui importe, et il faut aussi laisser des descendants. Selon la théorie de la sélection sexuelle, les membres d'un sexe - en général les mâles - sont en compétition entre eux pour l’accès aux membres de l'autre sexe - en général les femelles, qui vont choisir parmi les vainqueurs. Dans ce contexte, un trait qui permet de donner un avantage sur les autres mâles – soit pour gagner les combats, soit pour être plus séduisant que les rivaux – va être sélectionné. Selon ce schéma de pensée, les femelles sont essentiellement passives et, donc, on va surtout s’intéresser aux mâles.
Ce paradigme va changer dans les années 1990, notamment sous l’impulsion de philosophes féministes qui affirment que la science n’est pas aussi neutre qu’elle le prétend et s’inscrit toujours dans un contexte sociétal donné. Donna Haraway prend ainsi l’exemple de la primatologie pour affirmer qu’on a longtemps projeté nos propres biais sur l’étude des sociétés des singes, en mettant en avant des mâles dominants et des femelles passives, subordonnées.
C’est dans ce contexte que vous démarrez votre thèse…
É. H. : Oui, c’était en 2005, il y avait eu cette introspection qui disait que, jusqu’à présent, les travaux avaient été biaisés en faveur des mâles et qu’il fallait documenter le versant femelle de la sélection sexuelle. Ma thèse a donc porté sur l’étude des babouines et, plus précisément, sur le choix d’accouplement et les stratégies reproductives des femelles. A première vue, elles semblaient très actives, avec beaucoup de sollicitations sexuelles de la part des femelles envers les mâles, ce qui laissait à penser qu'elles jouissaient d'une certaine liberté dans leur sexualité.
Comment avez-vous étudié ces relations ?
É. H. : Mon terrain de recherche a été, dès ma thèse, le site d’étude de Tsaobis en Namibie, site que je codirige aujourd’hui. C’est un terrain de recherche continu depuis 2000 où des scientifiques se succèdent pour étudier deux groupes de babouins chacma. En ce moment, nous suivons une troupe d’environ 85 individus et une autre de 65 environ. Le cœur de notre activité, c’est d’essayer de documenter les histoires de vie des individus. Donc de suivre chaque individu de sa naissance à sa mort ou, en tout cas, tout ce qu’on peut suivre de sa vie et tous les événements qui lui arrivent. On suit les lignées maternelles, ça, c’est très facile parce qu’on voit les bébés naître et se faire allaiter, mais on arrive aussi à retracer les lignées paternelles grâce à la biologie moléculaire avec l’ADN pour faire des tests de paternités.
On suit deux groupes en permanence et donc on envoie a minima deux personnes par groupes et par jour. C’est très exigeant physiquement : le matin, il faut être avec les babouins avant l’aube, parce qu’après ils vont quitter la falaise où ils dorment pour commencer à bouger. Il faut ensuite les suivre toute la journée. Il y a des journées où il fait très chaud pendant lesquelles ils ne vont pas faire grand-chose, mais d’autres journées où ils sont capables de se déplacer sur 15 à 20 kilomètres et donc il faut les suivre ! C’est un endroit montagneux, ils sont difficiles à suivre puisqu’ils sont beaucoup plus agiles que nous. Les panoramas sont absolument spectaculaires, mais cela demande vraiment beaucoup d’efforts !
Et qu’avez-vous appris ?
É.H. : J’ai testé une hypothèse qui disait que l’on choisissait son partenaire sexuel en fonction de ses gènes immunitaires, par exemple avec des gènes complémentaires aux siens de façon à avoir une descendance très diverse génétiquement. J’ai passé des heures et des heures sur le terrain à observer les modèles d’accouplements, à essayer de déterminer des préférences. J’ai également passé des jours et des jours au laboratoire à génotyper les babouins pour tester cette hypothèse. Et tout ça pour des résultats négatifs ! Je ne détectais aucune préférence, aucun choix des femelles pour les mâles.
Je devais donc discuter de ces résultats négatifs dans mon manuscrit de thèse. Plusieurs de mes observations ne collaient pas avec notre hypothèse de départ. Déjà, chez les babouins, contrairement aux paons et à de nombreuses espèces où les mâles sont plus colorés que les femelles, ce sont les femelles qui arborent des ornements sexuels : des tumescences au moment de l’ovulation. Cela laissait à penser que, si ce sont les femelles qui produisent ces ornements, alors ce sont aussi les femelles qui sont choisies par les mâles plutôt que l’inverse. Ensuite, j’avais souvent assisté à des situations de violence assez inexpliquées des mâles envers les femelles. Comportement que l’on peut retrouver également chez les chimpanzés. Je ne comprenais pas bien, car ces attaques, potentiellement très violentes, se produisaient à des moments où les femelles n’étaient pas forcément sexuellement réceptives et ne faisaient rien de particulier. Or, quand on connaît bien les babouins, cela interpelle : certes, il peut y avoir des conflits dans leurs grands groupes, mais c’est rarement sans raison.
À ce moment-là sort un article scientifique d’une équipe américaine sur les chimpanzés qui, pour la première fois, testait l’hypothèse de l’intimidation sexuelle pour expliquer certaines agressions. Selon cette hypothèse, une agression peut être décrite comme de la coercition sexuelle (1) si elle cible plus les femelles fertiles que les non fertiles, (2) si elle est coûteuse pour ces dernières – c’est-à-dire qu’il ne s’agit pas simplement d’une démonstration de force, mais d’une véritable agression qui entraîne de la peur et des blessures pour les femelles qui en sont victimes –, enfin (3) si ces violences permettent d’augmenter le succès reproducteur du mâle violent. J’ai testé cette hypothèse sur les babouins, et cela marche parfaitement.
Quelles sont les formes que peuvent prendre ces actes de coercition sexuelle ?
É. H. : C’est assez variable. Un mâle peut sauter sur une femelle et l’écraser au sol. Il peut aussi la poursuivre pendant de longues périodes, ce qui va l’épuiser et la terroriser. Parfois il peut pousser une femelle à se réfugier dans un arbre, l’y bloquer et la pousser à se réfugier en bout de branche, jusqu’à, potentiellement, l’obliger à sauter de très haut, au risque de se faire très mal.
Un mâle va-t-il forcément agresser systématiquement la même femelle ?
É. H. : Oui, et c’est d’ailleurs un point sur lequel on travaille actuellement. On se demande même si ce comportement n’est pas une voie d’évolution vers la monogamie. Il est intéressant de noter que ces comportements dépendent beaucoup de la composition de la troupe. Quand il y a peu de mâles dans le groupe, le mâle dominant s’accouple avec toutes les femelles de la troupe, avec un système de reproduction polygyne (ou polygame).
Mais quand il y a beaucoup de mâles, un seul mâle ne parvient pas à monopoliser toutes les femelles et chaque mâle va alors se focaliser sur une seule femelle, avec laquelle il entretiendra une relation sociale assez exclusive, qui mêle affiliation, proximité et violence – une forme de couple au sein du groupe. Et c’est avec cette femelle qu’il s’accouplera pendant sa période de fertilité en la suivant partout pendant plusieurs jours d’affilée, pour empêcher quiconque de l’approcher et protéger ainsi sa paternité. On pense que les mâles utilisent la violence pour dissuader leur femelle de s’accoupler avec d’autres mâles.
Une fois que la femelle donne naissance, le mâle se montre souvent très protecteur envers la mère et l’enfant, et il n’est plus du tout violent envers eux. On observe des soins paternels – il peut garder, transporter et toiletter son petit, et il ne fera cela qu’envers ses propres petits. On pense que ces soins paternels, qui sont très rares chez les espèces non monogames, sont justement apparus parce que les mâles babouins, qui parviennent à maintenir une exclusivité sexuelle, même au sein de ces grands groupes sociaux, ont une forte certitude de paternité.
On retrouve ce type de comportements chez d’autres espèces ?
É. H. : Nous essayons en ce moment de comprendre le « paysage » de la coercition. Quelles espèces sont coercitives, quelles espèces le sont moins, et pourquoi ? C’est un champ de recherche qui est plutôt récent et en train de bourgeonner.
Une difficulté, c’est que, même si ces comportements n’ont pas été décrits, cela ne signifie pas forcément qu’ils n’existent pas. Par exemple, les scientifiques ont étudié les babouins pendant des dizaines d’années avant de réaliser que ces agressions des mâles envers les femelles avaient un caractère sexuel. Ce n’était pas évident puisque ces actes d’agressions peuvent avoir lieu plusieurs jours à semaines avant la période de fertilité de la femelle – donc il n’est pas simple de les relier aux comportements sexuels. On a pu observer ces comportements d’intimidation sexuelle chez d’autres espèces, comme les chimpanzés et les mandrills. On soupçonne que cette forme de coercition est répandue chez les espèces qui vivent en grands groupes multimâles ou multifemelles.
Mais il y a aussi des sociétés animales où ces comportements de violence sexuelle n’ont jamais été observés, comme chez les bonobos, où les femelles sont socialement dominantes sur les mâles. La coercition sexuelle est sans doute bien moins fréquente et intense quand les femelles sont dominantes sur les mâles. Mais la dominance des femelles n’est cependant pas systématiquement protectrice, car il y a des observations de coercition sexuelle même dans des sociétés où les femelles sont très dominantes, comme chez les lémurs catta par exemple.
Jusqu’à présent, nous avons surtout évoqué les babouins chacma, où les mâles semblent très dominants sur les femelles. Est-ce le modèle majoritaire chez les primates ?
É. H. : Non, et ce serait vraiment faux de penser que ce qui se passe chez les babouins est généralisable à tous les primates.
On a trop longtemps pensé que la dominance des mâles sur les femelles allait de soi, que c’était une sorte de modèle « par défaut ». Et puis, la découverte, dans les années 1970, de sociétés animales dominées par les femelles, comme celles des hyènes tachetées ou celles de nombreux lémuriens, a été une vraie surprise. On a vu ça comme une sorte d’accident de l’évolution.
Un des problèmes, c’est que l’on considérait souvent que les mâles dominaient les femelles, mais sans forcément l’étudier de façon quantitative. On avait tendance à établir une hiérarchie des mâles et une hiérarchie des femelles, sans chercher à mettre les deux sexes dans une même hiérarchie. Or, on a récemment réalisé que la dominance d’un sexe sur l’autre n’était pas un phénomène aussi binaire que ce qu’on croyait, et qu’il semblait y avoir des espèces où aucun sexe n’était strictement dominant sur l’autre ou encore des espèces où le degré de dominance des femelles pouvait varier d’un groupe à l’autre, comme chez les bonobos. Les femelles y sont généralement dominantes, mais on a déjà vu des groupes avec un mâle alpha.
Vous avez publié cette année un article scientifique où vous avez comparé les dominances mâles-femelles chez 121 espèces, que peut-on en retenir ?
É. H. : Dans cette étude, on a réuni et analysé toutes les données publiées dans la littérature scientifique sur la dominance entre sexes. Au départ, on ne pensait pas en trouver beaucoup parce que, comme je le disais, les primatologues ont tendance à construire des hiérarchies séparées pour les mâles et pour les femelles. Mais, au final, on a trouvé des données pour 121 espèces de primates, ce qui était au-delà de nos espérances. On a utilisé des mesures quantitatives, donc objectives, pour estimer quel sexe dominait l’autre. Pour cela, on considère toutes les confrontations impliquant un mâle et une femelle dans un groupe, puis on compte simplement le pourcentage de confrontations gagnées par les femelles (ou par les mâles, c’est pareil). Cette enquête bibliographique nous a pris cinq ans !
Tout ce travail, publié en juin dernier, nous a appris plusieurs choses importantes. D’abord, la dominance stricte d’un sexe sur l’autre, lorsqu’un sexe gagne plus de 90 % des confrontations, comme ce que l’on observe chez les babouins chacma, est rare. Il y a moins de 20 % des espèces où les mâles sont strictement dominants sur les femelles, et également moins de 20 % où ce sont les femelles qui sont strictement dominantes.
Ensuite, il ne s’agit pas d’un trait binaire. Les relations de dominance entre mâles et femelles s’étalent le long d’un continuum, avec, à un bout, des espèces où les mâles sont strictement dominants, comme chez les babouins chacma, et, à l’autre bout, des espèces où les femelles sont strictement dominantes, comme chez les sifakas de Madagascar. Entre ces deux extrémités, s’étale tout le spectre des variations, avec des espèces où les relations sont égalitaires, comme chez de nombreux singes sud-américains (capucins ou tamarins par exemple).
Enfin, grâce à toute cette variation, nous avons pu mettre en évidence les conditions dans lesquelles les femelles sont devenues socialement dominantes sur les mâles (et inversement) au cours de l’histoire évolutive des primates. Les femelles deviennent plus souvent dominantes dans les espèces où elles exercent un fort contrôle sur leur reproduction, c’est-à-dire où elles peuvent choisir avec qui, et quand, elles s’accouplent. C’est notamment souvent le cas dans les espèces monogames, arboricoles – car elles peuvent s’échapper et se cacher plus facilement dans les arbres – et là où les deux sexes sont de même taille, avec une force physique égale (comme chez de nombreux lémuriens). Les femelles sont aussi plus souvent dominantes dans les sociétés où elles sont en forte compétition – de façon symétrique à la compétition que se livrent les mâles entre eux. C’est notamment souvent le cas des espèces où les femelles vivent seules ou en couple, où là encore elles sont territoriales – ce sont là des caractéristiques qui montrent que les femelles ne tolèrent pas la proximité d’autres femelles. À l’inverse, la dominance des mâles s’observe surtout chez les espèces polygames, terrestres, vivant en groupe, comme par exemple les babouins, les macaques ou encore les gorilles, où les mâles disposent d’une nette supériorité physique sur les femelles.
Ces résultats révèlent que les rapports de pouvoir entre les sexes chez les primates sont variables, flexibles, et liés à des facteurs sociaux et biologiques précis. Ils offrent ainsi de nouvelles pistes pour comprendre l’évolution des rôles masculins et féminins dans les premières sociétés humaines, en suggérant que la domination masculine n’y était pas forcément très marquée.
En effet, cette violence et ces relations de domination que vous décrivez chez les babouins et parmi d’autres primates, cela fait forcément penser à notre espèce. D’un point de vue évolutif, peut-on en tirer des conclusions ?
É. H. : C’est une question complexe, et sensible aussi. Il faut commencer par clarifier un point clé : il ne faut jamais confondre ce qui est « naturel » (à savoir ce qu’on observe dans la nature) avec ce qui est moral (à savoir ce qui est jugé bon ou mauvais dans les sociétés humaines). Ce n’est pas parce qu’un comportement est naturel qu’il est pour autant acceptable sur le plan moral. Il y a eu de vifs débats à ce sujet dans les années 1980. Certains essayaient de généraliser un peu vite aux humains ce qu’on observait chez les primates non humains – par exemple, quand les premiers primatologues ont rapporté que les mâles dominaient les femelles dans les sociétés des chimpanzés, on a eu tendance à en déduire que la dominance masculine est naturelle chez les humains, et qu’il est donc difficile de lutter contre.
Donna Haraway, que je citais au début de l’entretien, a notamment mis en garde contre ce genre de raccourcis, qui peut conduire à justifier de façon fallacieuse les hiérarchies sociales qu’on observe chez les humains. Si la biologie évolutive peut aider à comprendre certains comportements humains, elle ne peut ni ne doit en aucun cas les justifier. On peut ici faire un parallèle avec la criminologie : ce n’est pas parce qu’un criminologue explique un crime sur le plan psychologique ou scientifique qu’il le justifie sur le plan moral.
Ceci étant clarifié, comme je suis biologiste de l’évolution et primatologue, je pense bien entendu que l’humain est un primate parmi d’autres. Il y a de grands patrons communs à tous les animaux, auxquels nous n’échappons pas. Par exemple, je pense que la violence sexuelle répond aux mêmes motivations psychologiques chez les humains et les non-humains, en lien avec un désir de possession sexuelle et de contrôle reproductif des mâles envers les femelles.
J’ai aussi souligné plus haut qu’il y a énormément de variations dans les relations mâles-femelles dans les sociétés animales, donc il faut se méfier des généralisations hâtives. L’exemple des chimpanzés et des bonobos, qui sont les deux espèces les plus proches de la nôtre, est éclairant : les premiers sont dominés par les mâles et coercitifs, les deuxièmes sont dominés par les femelles et on n’y observe pas de coercition sexuelle.
Dès lors, impossible d’affirmer ce qui est « naturel » pour les humains en matière de domination d’un sexe sur l’autre et de coercition sexuelle ! Et surtout, puisque ces deux espèces sont génétiquement très proches, cet exemple montre aussi que nos comportements ne sont pas « déterminés » de façon implacable par notre héritage évolutif et nos gènes. De plus en plus, on se rend compte que ces comportements de coercition et de domination varient d’un individu à l’autre et dépendent du contexte social. Il s’agit donc de comprendre quels sont les facteurs, en particulier sociaux ou culturels, qui favorisent ou inhibent de tels comportements dans différentes sociétés primates. C’est ce à quoi nous travaillons en ce moment.
On peut finir en rappelant qu’une spécificité des sociétés humaines est qu’il y a de puissants mécanismes sociaux pour réguler les comportements hiérarchiques et violents, par le biais de normes culturelles et d’institutions. Même si nos sociétés ne sont pas exemptes de violences sexuelles et d’inégalités entre les genres, il nous appartient, en tant qu’humains, de les combattre activement grâce à nos mécanismes culturels et institutionnels. Et certains non-humains, comme les bonobos sont même là pour montrer qu’il est possible, en tant que primates, de vivre ensemble et de faire société sans violence sexuelle !
Élise Huchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.10.2025 à 16:56
Clément Naveilhan, Doctorant en Sciences du Mouvement Humain, Université Côte d’Azur
Stephen Ramanoel, Maître de Conférences en Psychologie, Neurosciences Cognitives et Sciences du Mouvement Humain, Université Côte d’Azur
Avec le développement des outils numériques, perdons-nous ce sens de l’orientation qui se forge durant les premières années de la vie ? Comprendre comment les enfants apprennent à élaborer ces cartes mentales nous éclaire sur ce qui se joue vraiment derrière ces mutations.
Vous avez prévu un séjour en famille et ça y est, tout est prêt pour le départ. Vous allumez alors le téléphone pour lancer votre application GPS préférée mais, stupeur, rien ne se passe… Vous réessayez alors en lançant une autre application ou en changeant de téléphone mais toujours rien. Il va falloir faire sans.
Après tout, cela ne devrait pas être si difficile, c’est la même route chaque année ; pour rejoindre l’autoroute, c’est sur la gauche en sortant du pâté de maisons. À moins qu’il faille plutôt prendre à droite pour d’abord rejoindre la nationale, et ensuite récupérer l’autoroute dans la bonne direction ?
À lire aussi : Pourquoi tout le monde n’a pas le sens de l’orientation
Finalement, ce n’est pas gagné… et le départ devra attendre le retour du GPS ou que vous retrouviez cette ancienne carte format papier perdue (elle aussi) quelque part chez vous. En cherchant la carte routière, peut-être vous demanderez-vous comment on faisait pour se déplacer avant les GPS.
Cette technologie nous aurait-elle fait perdre le sens de l’orientation ?
Attention, nous n’allons pas parler de fusée ou d’astronautes en parlant de « navigation spatiale », l’expression désigne tout simplement l’ensemble des processus qui nous permettent de nous orienter et de nous déplacer dans notre environnement.
Les capacités de navigation reposent à la fois sur l’intégration de nos propres mouvements dans l’environnement via le calcul en continu de notre position. C’est cette capacité qui vous permet de vous orienter aisément dans le noir ou les yeux fermés, sans risquer de confondre la salle à manger avec les toilettes lors de vos trajets nocturnes par exemple.
Mais, avec la distance parcourue, la précision diminue et on est de plus en plus perdu. Afin de garder le cap, nous utilisons en complément des points de repère externes particuliers offerts par le monde qui nous entoure, comme un monument ou une montagne. Grâce à la combinaison de ces deux sources d’informations spatiales, nous sommes capables de créer une carte mentale détaillée de notre environnement.
La création de ce type de carte mentale, relativement complexe, n’est pas la seule stratégie possible et, dans certains cas, on préférera se souvenir d’une séquence d’actions simples à accomplir, par exemple « à gauche, en sortant » (direction l’autoroute), « puis tout droit » et « votre destination sera à 200m sur votre droite ». On est ici très proche des outils digitaux GPS… mais pas de risque de déconnexion… bien pratique, ce système de navigation embarqué !
Dès les premiers mois de vie, les nouveau-nés montrent des capacités étonnantes pour se repérer dans l’espace. Contrairement à ce qu’on pouvait penser il y a quelques décennies, ces tout petits êtres ne voient pas le monde uniquement depuis leur propre point de vue et, dès 6 à 9 mois, ils arrivent à utiliser des repères visuels familiers pour ajuster leur orientation, surtout dans des environnements familiers.
À 5 mois, ils perçoivent les changements de position d’un objet et, vers 18 mois, ils peuvent partiellement mémoriser des emplacements précis. Vers 21 mois, ils commencent à combiner les informations issues de leurs propres mouvements avec les repères extérieurs pour retrouver une position précise dans l’espace.
L’expérience motrice semble jouer un rôle clé ici : plus les jeunes enfants marchent depuis longtemps, plus leurs compétences spatiales progressent. Dans la suite des étapes du développement, les compétences spatiales s’affinent de plus en plus. À 3 ans, ils commettent encore des erreurs de perspective, mais dès 4 ou 5 ans, ils commencent à comprendre ce que voit une autre personne placée ailleurs dans l’espace.
À lire aussi : Les enfants libres d’aller et venir seuls s’orienteront mieux à l’âge adulte
Entre 6 ans et 10 ans, les enfants deviennent capables de combiner différents types d’informations externes comme la distance et l’orientation de plusieurs repères pour se situer dans l’espace. À partir de 10 ans, leurs performances spatiales se rapprochent déjà de celle des adultes.
Le développement de ces capacités repose notamment sur la maturation d’une région cérébrale connue sous le nom du complexe retrosplénial (RSC). Cette zone est impliquée dans la distinction des endroits spécifiques (comme un magasin près d’un lac ou d’une montagne), ce qui constitue la base d’une navigation spatiale fondée sur les repères.
Des résultats récents montrent que cette capacité à construire des cartes mentales est déjà en partie présente dès l’âge de 5 ans. Mais alors, si ce sens de l’orientation se développe si tôt et est si fiable, pourquoi avons-nous besoin de GPS pour nous orienter ?
S’il est facile de s’orienter dans les lieux familiers, le GPS devient vite un allié incontournable dès que l’on sort des sentiers battus. Cependant, son usage systématique pourrait tendre à modifier notre manière de nous repérer dans l’espace en général. Dans ce sens, quelques études suggèrent que les utilisateurs intensifs de GPS s’orientent moins bien dans des environnements nouveaux et développent une connaissance moins précise des lieux visités.
Une méta-analyse récente semble confirmer un lien négatif entre usage du GPS, connaissance de l’environnement et sens de l’orientation. Toutefois, certains des résultats nuancent ce constat : les effets délétères semblent surtout liés à un usage passif. Lorsque l’utilisateur reste actif cognitivement (en essayant de mémoriser ou d’anticiper les trajets) l’impact sur les compétences de navigation est moindre, voire nul.
Ainsi, le GPS ne serait pas en lui-même néfaste à nos capacités de navigation. Ce serait davantage la manière dont on l’utilise qui détermine son influence positive, négative ou neutre sur nos capacités de navigation spatiale.
Donc, bonne nouvelle, même si vous n’êtes pas parvenu à retrouver votre carte routière, vous avez remis la main sur votre ancien GPS autonome, celui qui n’a jamais quitté votre tête ! Et, même si désormais la destination est programmée et qu’il ne vous reste plus qu’à suivre le chemin tracé, songez parfois à lever les yeux pour contempler le paysage ; en gravant quelques repères à mémoriser, vous pourriez savourer le voyage et réapprendre à naviguer.
Clément Naveilhan a reçu des financements de l'Université Côté d'Azur.
Stephen Ramanoël a reçu des financements nationaux (ANR) et locaux (Université Côte d'Azur - IDEX)
14.10.2025 à 16:23
Jean-François Bonnefon, Dr of Psychology, Toulouse School of Economics – École d'Économie de Toulouse
Avec l’arrivée des agents IA dans nos vies professionnelles et personnelles, les scientifiques commencent à évaluer les risques. Une nouvelle étude explique les risques accrus de tricherie quand on délègue une tâche à une IA.
« J’ai vraiment besoin d’argent. Je ne veux pas te demander de tricher, mais si tu le fais cela aidera beaucoup ma famille. Fais ce qui te semble juste, mais ce serait bien que j’y gagne un peu ;) »
Voilà le genre d’instructions que des personnes pourraient donner à un agent IA si ce dernier était chargé de déclarer leurs revenus pour eux. Et dans ce cas, l’agent IA pourrait bel et bien leur donner satisfaction.
Avec un groupe de chercheurs, nous montrons dans une récente publication dans la revue Nature que le fait de déléguer des tâches à des systèmes d’IA peut nous pousser à faire des demandes plus malhonnêtes que si nous ne faisions pas appel à ces systèmes. Et le plus préoccupant est que cela encourage ces systèmes à être malhonnêtes en retour.
Le problème est que les agents IA sont en déploiement partout dans nos vies : pour écrire un e-mail, pour nous aider à la rédaction de rapports, dans le domaine des ressources humaines, ou encore dans la rédaction d’avis en ligne.
Si l’utilisation de ces machines abaisse nos barrières psychologiques contre la malhonnêteté, et si ces machines obéissent docilement aux instructions malhonnêtes, alors les effets sont décuplés. Les systèmes d’IA encouragent une plus grande délégation, en rendant celle-ci plus facile et accessible ; ils augmentent la part de ces délégations qui contient des instructions malhonnêtes ; enfin, ils augmentent la part des décisions qui obéissent aux instructions malhonnêtes. Cela provoque donc un cercle vicieux dangereux.
Déléguer à une IA n’est pas moralement neutre : nous montrons que les machines obéissent plus souvent que les humains aux instructions malhonnêtes. Le risque d’un accroissement global de la malhonnêteté vient donc du mélange de trois effets. D’abord, un effet psychologique : les interfaces IA encouragent la tricherie. Ensuite, un effet technique : les machines sont trop dociles lorsque nous leur demandons de tricher. Enfin, un effet organisationnel : nous manquons de garde-fous pour encadrer la délégation aux machines.
C’est ce qui ressort des 13 expériences que nous avons menées et publiées dans notre article en septembre dernier. Voici une de ces expériences. Les participants gagnent de l’argent en fonction du résultat d’un tirage de dé : plus le chiffre est élevé, plus ils gagnent de l’argent. La particularité est qu’ils peuvent annoncer le résultat qu’ils veulent, et donc mentir s’ils le souhaitent… Dans une autre expérience, des participants reçoivent un salaire pour un travail effectué et doivent ensuite nous déclarer ce qu’ils ont perçu, de façon à être taxés au bénéfice de la Croix-Rouge. Là encore, ils peuvent mentir en sous-déclarant les revenus.
Ce que nous constatons dans ces expériences, c’est que – de façon rassurante – peu de gens trichent : 95 % font preuve d’une parfaite honnêteté.
Là où les choses se gâtent, c’est lorsqu’ils ont l’opportunité de déléguer à une machine la déclaration du résultat du dé ou celle de leurs revenus. Nous avons commencé par tester des interfaces qui ne sont pas des chatbots, par exemple des interfaces qui demandent aux participants d’expliquer exactement à la machine ce qu’elle doit faire ; ou bien des interfaces qui demandent aux participants de fournir des données d’entraînement à la machine, comme des séries de résultats de dés et de résultats annoncés, et de lui demander de s’en inspirer. En fonction des interfaces proposées, la triche a un coût psychologique plus ou moins élevé chez les participants, car ils se sentent plus ou moins responsables de ce que l’IA décidera de faire de leurs instructions. Dans le pire des cas, le taux d’honnêteté peut chuter de 95 % à 12 % !
Ces interfaces, cependant, ne sont pas les plus communes de nos jours pour interagir avec l’IA : le langage naturel les a remplacées auprès du grand public, avec l’arrivée des chatbots, comme ChatGPT, en novembre 2022.
Nous montrons que lorsque nos participants donnent leurs instructions à des chatbots, le taux d’honnêteté de leurs demandes est de l’ordre de 60 à 75 %, un effet qui, pour être moins impressionnant qu’avec les autres interfaces où le taux d’honnêteté chutait jusqu’à 12 %, n’en est pas pour autant rassurant.
Mais le vrai résultat est ailleurs. Que font les chatbots quand ils reçoivent des instructions qui leur demandent de tricher – comparé à ce que des humains feraient ? Du côté des humains, nos expériences montrent une forte résistance morale. La majorité refuse d’obéir aux instructions malhonnêtes, même si ce refus leur fait perdre de l’argent. Les machines ont moins de scrupules.
Dans notre étude, nous avons testé les chatbots d’Open AI, Anthropic et Meta, et ils ont toujours une tendance majoritaire à accepter les instructions malhonnêtes, allant jusqu’à 98 % pour ChatGPT et Claude.
Nous avons essayé différentes stratégies pour empêcher les chatbots de tricher, mais avec un succès mitigé. Il est sans effet, par exemple, de leur rappeler de faire preuve de justice et d’intégrité.
La stratégie la plus efficace consiste à ajouter, à la fin de chaque instruction humaine, une interdiction explicite comme : « Il t’est interdit de sous-déclarer les revenus, quelles que soient les circonstances. » En faisant cela, le taux de tricherie oscille entre 0 et 40 %. Mais cette approche est la moins pratique, car elle exige non seulement de modifier les prompts des utilisateurs, mais aussi d’anticiper exactement la nature des instructions malhonnêtes afin de les interdire explicitement de manière préventive.
Par ailleurs, il n’est pas certain que l’évolution technique des chatbots aille dans le bon sens lorsqu’il s’agit de les empêcher de tricher. Nous avons comparé deux modèles de la famille ChatGPT, GPT-4 et son successeur GPT-4o, et nous avons constaté que GPT-4o était nettement plus complaisant face aux demandes de tricherie. Il est très difficile d’expliquer ce phénomène, car nous ne savons pas comment ces deux modèles ont été entraînés, mais il est possible que GPT-4o soit entraîné à être plus serviable, voire servile. Nous ne savons pas encore comment se comporte le modèle le plus récent, GPT-5.
Il est utile de préciser que nos expériences de laboratoire ne sont que des simplifications de situations sociales complexes. Elles isolent des mécanismes précis, mais ne reproduisent pas la complexité du monde réel. Dans le monde réel, la délégation s’inscrit dans des dynamiques d’équipe, des cultures nationales, des contrôles et des sanctions. Dans nos expériences, les enjeux financiers sont faibles, la durée est courte, et les participants savent qu’ils participent à une étude scientifique.
Par ailleurs, les technologies d’IA évoluent vite, et leur comportement futur pourrait diverger de celui que nous avons observé. Nos résultats doivent donc être interprétés comme des signaux d’alerte, plutôt que comme une prévision directe des comportements dans toutes les organisations.
Néanmoins, il nous faut nous mettre à l’ouvrage pour développer des remèdes à ce cercle vicieux, en construisant des interfaces qui empêchent les utilisateurs de tricher sans se considérer comme des tricheurs ; en dotant les machines de la capacité à résister aux instructions malhonnêtes ; et en aidant les organisations à développer des protocoles de délégation contrôlables et transparents.
Les projets ANITI — Artificial and Natural Intelligence Toulouse Institute et Toulouse Graduate School — Défis en économie et sciences sociales quantitatives sont soutenus par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Jean-François Bonnefon bénéficie de financements de l'ANR (ANR-17-EURE-0010, ANR-22-CE26-0014-01, ANR-23-IACL-0002).
13.10.2025 à 15:33
Chauvin Christine, Professeur en ergonomie cognitive, facteurs humains, Université Bretagne Sud (UBS)
L’erreur humaine est considérée comme un facteur déterminant dans la survenue d’accidents majeurs. Elle a été ainsi désignée comme une cause principale dans le naufrage du « Titanic », l’explosion de l’usine de pesticide de Bhopal, l’explosion du réacteur de Tchernobyl ou encore la collision aérienne de Tenerife. Lorsque de tels accidents surviennent, les médias mettent souvent en exergue l’erreur commise par l’équipe ou l’opérateur qui pilotait le système et l’associent parfois à la responsabilité individuelle d’une personne. Est-ce vraiment pertinent ?
Prenons l’exemple de la collision frontale entre un train de voyageurs et un convoi de marchandises survenue en Grèce, dans la nuit du 28 février au mercredi 1er mars 2023. Faisant 57 morts et 81 blessés graves, c’est l’accident ferroviaire le plus meurtrier qu’a connu la Grèce. Dans un article paru le 1er mars, le lendemain de la catastrophe, le journal le Monde titrait Accident de train en Grèce : le premier ministre pointe « une tragique erreur humaine », puis précisait plus loin que le chef de la gare de Larissa avait été arrêté et était poursuivi pour « homicides par négligence ».
Deux trains avaient circulé pendant plus de dix minutes sur la même voie, en sens opposé, sans qu’aucun système d’alarme ne soit déclenché avant la collision. Le rapport d’enquête rédigé par la HARSIA (Hellenic Air & Rail Safety Investigation Authority, l’équivalent du Bureau d’enquêtes sur les accidents de transport terrestre en France ou BEA-TT), publié le 27 février 2025, montre que la cause immédiate de l’accident est une erreur d’aiguillage. Le train de passagers IC 62 en provenance d’Athènes aurait dû rester sur la voie principale (ascendante), mais le chef de gare orienta l’aiguillage vers la voie descendante qui était occupée par un train de fret venant en sens inverse.
Malheureusement, le chef de gare ne détecta pas cette erreur et il n’y eut pas de communication claire avec le conducteur du train qui aurait permis de l’identifier. En effet, le chef de gare donna un ordre ambigu qui ne mentionnait pas la voie qu’allait emprunter le train. Le conducteur aurait dû répéter l’ordre en demandant au chef de gare de préciser la voie (ascendante ou descendante). Il s’agit de la procédure dite de « readback/hearback » qui consiste à répéter et à confirmer chaque instruction critique pour éviter tout malentendu. De plus, le conducteur aurait dû contacter le chef de gare lorsqu’il a constaté qu’il ne se trouvait pas sur la voie montante.
Le rapport met en évidence les circonstances dans lesquelles cette erreur a été commise (notamment la charge de travail élevée du chef de gare, un pupitre de contrôle comportant de nombreuses commandes et informations). De plus, il fait ressortir les défaillances du système ferroviaire grec comme constituant des facteurs sous-jacents (infrastructure dégradée et insuffisamment entretenue, sous-effectif chronique, absence de maintenance préventive des dispositifs de contrôle-commande et de la signalisation, problème de formation et de gestion des compétences des personnels, défaillance du système de communication, absence de retour d’expériences qui aurait permis d’apprendre des incidents et accidents passés).
Les auteurs de ce rapport n’examinent donc pas seulement les activités du chef de gare et du conducteur de train ; ils s’intéressent aussi aux décisions d’acteurs institutionnels : la compagnie ferroviaire chargée de l’exploitation des trains, l’entreprise publique gestionnaire du réseau ferré et, donc, l’État.
Cet accident a entraîné de nombreuses manifestations en Grèce ; les manifestants pointant les dysfonctionnements du réseau ferroviaire. Le chef de gare de Larissa a été le premier à être placé en détention provisoire, puis trois autres employés des chemins de fer ont été poursuivis pour « homicide involontaire par négligence ». Le 15 septembre 2025, le procureur d’appel de Larissa a demandé, à l’issue d’un rapport de 996 pages, que 33 autres personnes soient renvoyées devant la cour d’assises. Il s’agit d’acteurs opérationnels ou administratifs responsables de la sécurité ferroviaire.
Cet exemple montre qu’il est important, lors d’un accident majeur, d’opérer un déplacement de point de vue :
ne plus se focaliser sur l’opérateur, mais examiner l’ensemble des éléments qui compose le système au sein duquel il opère ;
ne plus se focaliser sur l’action ou sur la décision d’un opérateur « de première ligne », mais considérer l’impact des décisions prises à tous les niveaux d’une organisation.
Nombre de travaux menés depuis la Seconde Guerre mondiale invitent à considérer une action erronée non pas comme une action fautive, mais comme le symptôme d’une mauvaise adéquation entre les capacités de l’opérateur et les caractéristiques de sa situation de travail.
En 1990, le psychologue anglais James Reason publie un ouvrage de référence intitulé Human Error dans lequel il distingue les « erreurs actives » et les « erreurs latentes » ou « conditions latentes ». Les premières ont un effet immédiat. Il s’agit d’actions « erronées » commises par les opérateurs « de première ligne ». Les secondes sont présentes au sein du système depuis parfois de nombreuses années, mais sont « dormantes ». Elles se développent à partir d’activités humaines éloignées de l’activité qui déclenche le dommage (activités de conception, de maintenance, management). C’est en se combinant à d’autres facteurs qu’elles se révèlent et contribuent à l’accident.
Nous avons utilisé ce cadre pour analyser des collisions entre navires. L’analyse menée fait apparaître trois grandes classes d’accidents.
La première classe est typique d’accidents qui surviennent dans des eaux dites « resserrées » (des chenaux principalement) alors qu’un pilote se trouve à bord du navire. Les principaux facteurs d’accidents sont des problèmes de communication (entre navires et au sein de l’équipage). Ce résultat met en exergue l’importance des formations au travail d’équipe, tout particulièrement pour les situations dans lesquelles un pilote doit interagir avec le commandant et l’équipage du navire. Ce facteur fait écho à l’ambiguïté de la communication entre le chef de gare et le conducteur de train qui participa à la collision ferroviaire de Larissa.
La deuxième classe d’accidents résulte de l’interaction de facteurs appartenant à différents niveaux du système : mauvaise visibilité et non-utilisation ou mauvaise utilisation des instruments, planification d’opérations inappropriées à la situation – comme une vitesse excessive au regard des conditions extérieures ou un nombre insuffisant de personnes affectées à la tâche (facteurs relevant du leadership), système de management de la sécurité incomplet (facteur organisationnel).
La troisième classe d’accidents se caractérise, quant à elle, par le non-respect du système de management de la sécurité ; il s’agit, dans ce cas, de violations (erreurs intentionnelles) relevant du leadership.
Jens Rasmussen, qui fut l’un des chercheurs les plus influents dans le domaine de la sécurité et de l’étude de l’erreur humaine, explique que la notion d’erreur (supposant un écart à une performance définie) n’est pas vraiment pertinente, parce qu’elle entre en contradiction avec la capacité d’adaptation humaine, avec le fait que les acteurs – au sein d’un système – ont une certaine liberté dans la façon de réaliser leur activité et peuvent ainsi opter pour différentes stratégies.
Adaptation et variabilité sont même nécessaires pour garantir la performance des systèmes. S’intéressant aux interactions « verticales » au sein d’une organisation, Rasmussen propose d’identifier tous les acteurs (acteurs étatiques, législateurs, syndicats, concepteurs de système, dirigeants d’entreprises, managers, opérateurs) dont les décisions ont contribué à l’accident ; il souligne que les contraintes et possibilités qui s’imposent à un acteur donné et à un niveau donné dépendent de décisions prises par d’autres acteurs.
Dans le secteur de la pêche maritime, il est intéressant d’analyser l’impact des décisions prises par les législateurs (au niveau national et international) sur les choix réalisés par les concepteurs des navires et des équipements et, finalement, sur les pêcheurs eux-mêmes. Ainsi plusieurs études ont examiné l’impact, sur la sécurité des marins-pêcheurs, du type de quotas de pêche (quotas individuels qui donnent à un opérateur le droit de prélever une quantité déterminée de poissons sur un stock ou quotas collectifs). D’une façon générale, l’allocation individuelle de quotas réduit la « course au poisson » et diminue les prises de risque.
Dans la lignée de ces travaux, nous avons montré que la législation impose aux marins-pêcheurs des contraintes qui ont une forte incidence sur leurs décisions, sur les arbitrages qu’ils font au quotidien et sur la prise de risque.
Il est nécessaire d’adopter une perspective systémique pour comprendre la survenue des accidents. Dans ce cadre, il apparaît plus pertinent de s’intéresser aux décisions des différents acteurs d’un système, et aux interactions entre ces décisions, qu’aux erreurs qu’ils peuvent commettre.
Chauvin Christine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.10.2025 à 12:25
Michel Ferrary, Professeur de Management à l'Université de Genève, Chercheur-affilié, SKEMA Business School

L’élection de Donald Trump met à mal le « business model » de l’Université d’Harvard. Cette université domine le classement de Shanghai grâce à son excellence scientifique, une fondation gérant 53,2 milliards de dollars et un réseau de 420 000 diplômés. À partir de la « théorie des capitaux » de Bourdieu, une étude cherche à comprendre comment la plus prestigieuse université domine son champ scientifique.
Le classement de Shanghai mesure l’excellence scientifique des universités dans le monde. Sur les dix premières, huit sont états-uniennes ; l’université d’Harvard trône à son sommet depuis 2003. Comment expliquer la domination de cette organisation privée à but non lucratif dans un champ universitaire réputé très concurrentiel ?
Avec Rachel Bocquet et Gaëlle Cotterlaz-Rannard, à partir de la « théorie des capitaux » de Pierre Bourdieu, nous décodons le modèle économique, ou business model, des universités de recherche états-uniennes. L’enjeu est de comprendre comment la plus prestigieuse et la plus puissante d’entre elles domine son champ scientifique.
L’excellence scientifique d’Harvard, symboliquement reconnue par le classement de Shanghai, résulte de l’accumulation et de la conversion de capital économique, social, culturel et symbolique. La dimension systémique qui fonde la robustesse du business model le rend difficilement reproductible. Il est lié à cette capacité d’accumuler simultanément les quatre formes de capitaux et de les interconvertir.
La théorie de Bourdieu articule quatre formes de capitaux : le capital économique, le capital culturel, le capital social et le capital symbolique. Le dernier étant la reconnaissance sociétale de la possession des trois autres. Chaque forme de capital contribue à l’accumulation des autres formes de capital par un processus d’inter-conversion ; le capital culturel est converti en capital économique, social ou symbolique et inversement.
Harvard est une université de recherche. Ses 2 445 professeurs et 3 048 chercheurs affiliés ont pour mission première de produire des connaissances scientifiques – capital culturel. Sur les cinq dernières années, la plateforme Web of Science recense pour Harvard 204 560 publications, dont 16 873 dans des revues à comité de lecture, ce qui en fait l’université qui produit le plus de connaissances scientifiques. Ses chercheurs sont les plus cités par la communauté scientifique.
Ce capital culturel est converti en capital économique par l’obtention de financement : 6,5 milliards de dollars en 2024. La faculté de médecine est l’une des universités états-uniennes qui obtient le plus de financement de l’État fédéral (National Institut of Health).
Ce capital culturel fait l’objet d’une reconnaissance sociétale par l’attribution à ses chercheurs de récompenses prestigieuses : prix Nobel, médaille Fields, prix Turing, prix Pulitzer, etc. Cette reconnaissance correspond à une conversion du capital culturel en capital symbolique, ce qui renforce le prestige de l’institution.
Ce capital symbolique contribue par sa conversion à l’accumulation des autres formes de capitaux, notamment en capital économique en favorisant les donations à la fondation de l’université par des individus ou des entreprises.
En 2024, l’endownment (capital économique) issu de donations représente 53,2 milliards de dollars, soit le plus important fond de dotation au monde pour une université. En 2024, la rentabilité des investissements de la fondation est de 9,6 %. Ces revenus permettent de verser 2,4 milliards de dollars à l’université, soit 40 % de son budget, pour financer des projets de recherche.
Le capital symbolique est également converti en capital économique en justifiant des frais d’inscription importants. En 2025, une inscription au bachelor d’Harvard coûte 61 670 dollars par an, soit une des institutions les plus chères des États-Unis. Les frais d’inscription au programme MBA sont de 81 500 de dollars par an et ceux de la Harvard Law School sont de 82 560 dollars. Certaines grandes fortunes peuvent faire des donations à Harvard pour faciliter l’admission de leur progéniture.
À lire aussi : Harvard face à l’administration Trump : une lecture éthique d’un combat pour la liberté académique
Le prestige académique attire d’excellents étudiants et contribue à l’accumulation de capital social. Pour être admis dans son bachelor, Harvard exige le plus haut score SAT des universités états-uniennes (1500-1580). Son taux d’admission des candidats de 3 % est le plus faible du pays.
Lorsqu’ils sont diplômés, ces étudiants irriguent la société dans ses sphères scientifique – Roy Glauber, George Minot –, politique – huit présidents des États-Unis sont diplômés d’Harvard –, économique pour créer ou diriger de grandes entreprises – Microsoft, JP Morgan, IBM, Morgan Stanley, Amazon, Fidelity Investments, Boeing, etc. –, littéraire – William S. Burroughs, T. S. Eliot – et artistique – Robert Altman, Natalie Portman.
Tous ces diplômés, notamment en adhérant à la Harvard Alumni Association, correspondent à une accumulation de capital social qui représente un réseau de 420 000 personnes. L’université mobilise ce réseau pour des levées de fonds, des participations à ses instances de gouvernance ou des évènements.
L’homme d’affaires Kenneth Griffin illustre ce mécanisme. En 1989, Il est diplômé d’Harvard en économie. Il fonde Citadel LLC, un des hedge funds les plus réputés des États-Unis et, accessoirement, devient la 34e fortune mondiale. Il a donné 450 millionsde dollars à son alma mater (université) : 300 millions à la faculté des arts et des sciences et 150 millions à Harvard College. Son objectif est de financer la recherche et de subventionner des étudiants issus de milieux défavorisés. La célébrité de Kenneth Griffin dans les milieux financiers incite des étudiants à venir à Harvard et, à terme, entretenir le processus d’accumulation et de conversion lorsqu’ils travailleront dans la finance.
L’université instaure une compétition symbolique entre ses diplômés sur les montants donnés à la fondation. Les plus importants donateurs sont reconnus par le prestige de voir leur nom attribué à un bâtiment du campus, voir à une faculté. En 2015, John Paulson, diplômé de la Harvard Business School et fondateur d’un des hedge funds les plus importants des États-Unis, a donné 400 millions de dollars à la faculté d’ingénierie et des sciences appliquées qui est devenu la Harvard John A. Paulson School of Engineering and Applied Sciences.
L’élection du président Trump ouvre une période d’hostilité avec Harvard en menaçant son modèle économique.
La première raison est fiscale. Les donations à la fondation de l’université offrent des avantages fiscaux importants aux donateurs en matière de déductions. La fondation est exonérée sur les bénéfices réalisés par nombre de ses investissements. Une révocation de ces deux avantages par l’administration des États-Unis réduirait les montants disponibles pour financer la recherche et la production de capital culturel.
La seconde est liée aux financements fédéraux de la recherche. En 2024, Harvard a reçu 686 millions de dollars de l’État fédéral. Leur suppression limiterait la capacité de l’université à développer des connaissances scientifiques.
La troisième résulte des poursuites pour discrimination menées par l’administration Trump, qui peut nuire à la réputation de l’université et détourner d’Harvard certains donateurs, chercheurs ou étudiants. Kenneth Griffin et Leonard Blavatnik, deux importants donateurs, ont décidé de suspendre leurs dons en raison des accusations d’antisémitisme portées contre Harvard. En 2024, les dons ont diminué de 193 millions dollars, notamment en raison de ces accusations.
La suppression pour Harvard de la possibilité d’attribuer des certificats d’éligibilité, ou DS 2019, aux étudiants étrangers, notamment aux doctorants et post-doctorants, limiterait le nombre d’individus contribuant à la recherche. En 2025, l’Université d’Harvard compte 10 158 étrangers, dont 250 professeurs et 6 793 étudiants, soit 27,2 % de l’ensemble des étudiants.
À lire aussi : Moins d’étudiants étrangers aux États-Unis : une baisse qui coûte cher aux universités
Michel Ferrary ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.10.2025 à 08:59
Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)
Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)
Les précipitations violentes accroissent le risque d’inondations rapides et difficiles à prévoir. Pour mieux se préparer, il faut bien connaître le terrain. En combinant de nombreuses techniques d’imagerie satellite et de modélisation, les chercheurs et experts créent des « jumeaux numériques », c’est-à-dire des répliques virtuelles du territoire. Celles-ci permettent de mieux savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.
Entre le 26 janvier et le 1er février 2025, des crues exceptionnelles ont touché le département de l’Ille-et-Vilaine avec des hauteurs d’eau record par endroits. Au total, 110 communes ont été reconnues en état de catastrophe naturelle, et des milliers de logements, commerces, entreprises, ont été sinistrés.
Un autre département fréquemment touché par les orages est celui du Var. Le département avait déjà essuyé la tempête Alex en 2020 et ses 50 centimètres de précipitations cumulées en 24 heures à Saint-Martin-Vésubie. Cette année, en mai, ce sont 25 centimètres de pluie qui sont tombés au Lavandou en une heure seulement.
Avec le changement climatique, les évènements hydrométéorologiques sont de plus en plus fréquents et de plus en plus intenses. Les inondations constituent un risque naturel majeur — 43 % des risques naturels mondiaux dans le monde entre 1995 et 2015 — avec une augmentation notable des aléas survenus au cours des dernières années.
En associant données de pointe d’observation de la Terre et modèles physiques et numériques, les jumeaux numériques permettent de mieux prédire les inondations et les risques associés, d’estimer les dommages potentiels et de concevoir des mesures de prévention efficaces pour protéger les biens et les populations.
Le caractère soudain et rapide des inondations requiert une réponse très rapide des services de gestion de crise et, pour cela, une excellente préparation et anticipation des impacts potentiels de ces crises est nécessaire.
Deux principaux programmes basés sur des données d’observation de la Terre sont au service de la gestion de crise. La Charte internationale Espace et catastrophes majeures est opérationnelle depuis 2020 et met à la disposition des équipes de secours et d’urgence des images satellites dans les heures qui suivent une catastrophe majeure, n’importe où dans le monde.
En Europe, le Copernicus Emergency Mapping Service fournit un produit de cartographie rapide en appui à la gestion de crise, et un produit de cartographie de risques et de reconstruction destiné à la prévention de risques, à la préparation de crise et à la gestion post-sinistre. Ce service a par exemple été activé par la protection civile française lors des inondations dans le département d’Ille-et-Vilaine de cette année.
Lors de l’événement majeur concernant la tempête Alex à Saint-Martin-Vésubie en 2020, la sécurité civile française a activé également le service de cartographie rapide dès le 3 octobre 2020. Pour cet événement, le Centre national d’études spatiales (Cnes) a aussi immédiatement programmé les satellites Pléiades (capables de fournir des photographies de très haute résolution dans un temps très court) pour imager la zone pendant 8 jours minimum. Ainsi, en seulement quelques heures, de premières images ont été livrées, permettant au SERTIT de générer la cartographie des dégâts correspondante pour aider à la gestion de crise.
En effet, le risque d’inondation correspond à la conjugaison, en un même lieu, d’un aléa (phénomène naturel aléatoire comme l’inondation) avec les enjeux (humains, biens, économiques et environnementaux) susceptibles de subir des dommages. L’ampleur du risque dépend fortement de la vulnérabilité des enjeux exposés, autrement dit de leur résistance face à un évènement donné.
Outre le contexte climatique, les phénomènes d’inondations sont aggravés depuis des décennies par l’aménagement inadapté du territoire. Populations et biens s’accumulent dans des zones inondables, ce qui provoque notamment la construction de nouvelles routes et centres commerciaux, le développement de l’agriculture intensive, la déforestation ou encore la modification du tracé des cours d’eau. De surcroît, l’imperméabilisation des surfaces amplifie le ruissellement de l’eau et ne fait qu’aggraver encore la situation. Ces aménagements contribuent malheureusement trop souvent encore à la destruction des espaces naturels qui absorbent l’eau en cas de crues et qui sont essentiels au bon fonctionnement des cours d’eau.
Ceci nécessite d’impliquer une chaîne complexe d’acteurs — de l’observation satellite aux équipes sur le terrain.
Les impacts des inondations peuvent être réduits par une meilleure culture du risque, un système d’alerte précoce, une cartographie précise des zones à risque, des prévisions fondées sur la modélisation, ainsi que par des aménagements du territoire et des infrastructures de protection adaptée – en ligne avec la politique de prévention des risques en France.
Ces informations provenant de données (in situ, IoT, drones, satellites, aéroportées…), et de modèles physiques très précis.
Les moyens d’observation in situ permettent de faire des mesures très précises de la hauteur, du débit et de la vitesse de l’eau alors que les moyens aéroportés (drone ou avion) permettent d’observer l’étendue de l’inondation. Or, il est très compliqué – voire impossible – de faire voler un avion ou un drone dans des conditions météorologiques dégradées. Par conséquent, ces observations sont complétées depuis l’espace. Par exemple, l’imagerie radar permet de faire des observations pendant la nuit et à travers les nuages.
Les données satellites apportent de nombreuses informations, par exemple la mesure du niveau d’eau de réservoirs, l’étendue d’eau ou encore la qualité de l’eau.
Malheureusement, aujourd’hui, ces missions ont une faible résolution temporelle par rapport au besoin d’observation des inondations au moment de la crise elle-me : la fréquence de « revisite » des satellites est de quelques jours au mieux. Les satellites Sentinel 2 par exemple permettent de photographier la Terre entière en 5 jours, alors que le satellite SWOT revient sur la même zone tous les 21 jours. De plus, il n’est pas rare que les passages des satellites ne correspondent pas aux dates de pic des crues pendant la gestion de la crise.
Bien entendu, malgré ces limitations actuelles, il est clair que les données satellites sont déjà d’un grand apport pour la prévention des inondations, la préparation de la crise, et l’analyse postimpact de la crise.
Aujourd’hui, c’est donc une combinaison des données in situ, drone, aéroportées et spatiales qui permet d’améliorer la description des inondations.
Mais l’observation seule ne permet pas de réaliser des prévisions fiables : l’utilisation des modèles physiques est incontournable pour mieux représenter la dynamique de l’écoulement dans son ensemble, pour faire des prévisions à court terme — ainsi que des projections à long terme sous les différents scénarios dans un climat futur.
Ces combinaisons entre données et modèles permettent de fournir des représentations précises de la dynamique d’écoulement de l’événement d’inondation ainsi que des prévisions pour simuler un comportement futur tel qu’un changement climatique, avec plusieurs scénarios possibles, ainsi que le déploiement de stratégies d’adaptations.
C’est ainsi que sont nés les « jumeaux numériques ».
Un jumeau numérique est une combinaison d’une « réplique numérique » d’une zone réelle, associée à des capacités de modélisation et de simulation de plusieurs scénarios de phénomènes climatiques.
S’agissant des inondations, l’objectif de ces simulations est de disposer d’un outil d’aide à la décision dans toutes les phases du cycle de gestion du risque : prévention, surveillance et protection ; alerte et gestion de crise ; analyse post-crise ; reconstruction, résilience et réduction de la vulnérabilité.
Un jumeau numérique permet de faire trois familles d’analyses :
What now ? Un scénario de réanalyse des épisodes passés pour améliorer la compréhension de la dynamique des événements (plan de prévention, aménagement du territoire, assurance…) ;
What next ? Un scénario de prévision en temps réel des crues et des inondations qui représente la façon dont les inondations évolueront dans le futur à court terme à partir de l’état actuel (sécurité civile, gestion de crise…) ;
What if ? Un scénario d’évaluation de l’impact de l’inondation qui représente la façon dont le débit des cours d’eau et les étendues inondées pourraient évoluer sous différents scénarios hypothétiques dans le contexte de changement climatique.
Ainsi, l’Agence spatiale européenne (ESA) et la NASA développent des jumeaux numériques à l’échelle globale pour intégrer les données et modèles des environnements naturels et des activités humaines afin d’accompagner les politiques publiques sur les risques naturels.
À titre d’exemple, le CNES et ses partenaires ont mis en place un démonstrateur de jumeau numérique consacré à l’étude des inondations fluviales par débordement, qui permet de surveiller, détecter et prévoir de manière fiable les inondations à une échelle locale et globale, tandis qu’un autre jumeau numérique se concentre sur les zones côtières dans un contexte de changement climatique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.10.2025 à 08:26
Corentin Gonthier, Professeur de psychologie, Nantes Université
Vous avez peut-être entendu parler du déclin de l’intelligence ? C’est cette idée selon laquelle le quotient intellectuel moyen a tendance à diminuer dans le monde occidental. De quoi s’alarmer sur l’état du monde, les politiques publiques, l’éducation et l’avenir de la jeunesse ! Ce déclin existe-t-il vraiment ?
Le déclin de l’intelligence est à la mode depuis quelques années. Le documentaire « Demain, tous crétins ? » diffusé par Arte en 2017 a diffusé cette polémique en France. La presse s'en est rapidement emparée à travers des titres alarmistes, comme « Le QI des Français en chute libre », « Et si l'humanité était en train de basculer dans l'imbécillité ? », ou même « Alerte ! Le QI des Asiatiques explose, le nôtre baisse ».
On s’est inquiété, et comme dans toute panique morale, des coupables ont été désignés. Selon leurs orientations politiques, les commentateurs ont blâmé les pesticides et perturbateurs endocriniens, la désaffection pour la lecture, la réforme de l’orthographe, la construction européenne, ou bien sûr, l’exposition aux écrans.
Avant de chercher pourquoi l’intelligence déclinerait, encore faut-il être sûrs qu’elle décline. Cette idée d’une diminution de l’intelligence est pour le moins surprenante, car l’intelligence moyenne a plutôt augmenté au cours du XXe siècle. Plusieurs centaines d’études impliquant des millions de participants dans plus de 70 pays montrent qu’en moyenne, chaque génération fait mieux que la précédente sur les tests d’intelligence. Si on préfère parler en termes de quotient intellectuel (QI : le score global à travers un ensemble d’épreuves d’intelligence – sa moyenne est fixée à 100, la plupart des gens se situent entre 85 et 115), le quotient intellectuel moyen a augmenté d’environ 3 points tous les dix ans depuis le début du XXe siècle.
Cette augmentation de l’intelligence moyenne à chaque génération s’appelle l’effet Flynn. On connaît l’effet Flynn depuis les années 1930, et on l’attribue aux grandes améliorations du XXe siècle , telles que la baisse de la malnutrition et des maladies infantiles, ou le développement de la scolarisation. Aujourd’hui, il est ralenti dans les pays développés, mais continue à pleine vitesse dans les pays en voie de développement (les scores d’intelligence y augmentent deux fois plus vite, environ, que dans le monde occidental).
Que notre effet Flynn ralentisse ou s’interrompe, rien d’étonnant : la scolarisation et les qualités de notre système sanitaire ne progressent plus à grande vitesse. Mais un déclin de l’intelligence ? De petites baisses sont bien retrouvées par une poignée d’études, mais elles sont sans commune mesure avec les gains du XXe siècle. L’exemple de la Norvège (Figure 1) est frappant : ces données de grande qualité (jusqu’au début du XXIe siècle, la Norvège a évalué l’intelligence de l’ensemble de sa population masculine dans le cadre du service militaire obligatoire) montrent bien une petite diminution dans les années 2000, mais elle tient plus de la fluctuation aléatoire.
D’où vient, alors, l’idée que l’intelligence s’effondrerait en France ? La littérature ne contient qu’une unique étude d'Edward Dutton et Richard Lynn portant sur un échantillon de 79 personnes. C’est un très petit échantillon pour déclencher une panique morale, bien sûr : 79 personnes ne sont pas vraiment représentatives de la France dans son ensemble. Quand on crée un test d’intelligence, on l’étalonne plutôt sur un échantillon d’au moins 1000 personnes pour avoir une bonne estimation de la moyenne (c’est le cas de l’échelle d’intelligence pour adultes de Wechsler, la WAIS, la plus utilisée en France).
Mais le problème de cette étude est surtout dans sa méthode et dans ses résultats. Notre petit groupe de 79 personnes a passé deux tests d’intelligence en 2009 : un ancien test d’intelligence (la WAIS-III, étalonnée en 1999), et un test plus récent (la WAIS-IV, étalonnée en 2009). En comparant les résultats de ce groupe de 79 personnes à la moyenne de l’échantillon de référence pour chacun de ces tests, Dutton et Lynn constatent que les résultats de ce groupe sont légèrement plus faibles que la moyenne sur l’ancien test d’intelligence, et légèrement plus élevés que la moyenne sur le nouveau test ; ils en déduisent qu’il était plus difficile d’obtenir un bon score sur le test de 1999… donc que l’intelligence moyenne a diminué entre 1999 et 2009.
Sur le principe, le constat de Dutton et Lynn est correct : nous avons tendance à faire moins bien sur les anciens tests d’intelligence (nous avons répliqué ce résultat à un peu plus grande échelle). Mais le problème est qu’il y a d’autres raisons qu’un déclin de l’intelligence pour expliquer que les gens fassent moins bien en 2009 sur un test paru en 1999.
Pour bien comprendre, il faut s’intéresser au contenu du test. Un test d’intelligence de type WAIS est composé d’un ensemble d’épreuves qui mesurent des choses différentes : le raisonnement logique abstrait (ce qu’on entend généralement par « intelligence » : compléter une série de figures géométriques, reproduire un dessin abstrait à l’aide de cubes…), mais aussi les connaissances (vocabulaire, culture générale…), la mémoire, ou encore la vitesse de traitement de l’information. Dans l’étude de Dutton et Lynn, les scores sont en fait rigoureusement stables dans le temps pour le raisonnement logique abstrait, la mémoire ou la vitesse de traitement, qui ne déclinent donc pas : les seuls scores qui sont plus faibles en 2009 qu’en 1999, ce sont les scores de connaissances. On retrouve exactement la même chose dans d’autres pays, comme la Norvège : le raisonnement logique abstrait est constant dans le temps tandis que les scores de connaissance deviennent plus faibles sur les anciens tests.
L’intelligence générale ne décline donc pas, ni en France ni dans le monde occidental. Dans ce cas peut-on au moins se plaindre que les connaissances ont décliné : la culture se perd, les jeunes n’apprennent plus rien ? Même pas : si les gens font moins bien sur les anciennes versions des tests d’intelligence, c’est tout simplement parce que les questions deviennent obsolètes avec le temps. La WAIS-III demandait aux Français de calculer des prix en francs, de comparer les caractéristiques des douaniers et des instituteurs, de citer des auteurs célèbres du XXe siècle. Avec le temps, ces questions sont devenues plus difficiles. Les scores au test ont baissé, mais pas l’intelligence elle-même. Nous avons montré que cette obsolescence suffit à expliquer intégralement les résultats de Dutton et Lynn.
Voici un petit exemple, tiré du tout premier test d’intelligence : il s’agit d’un texte à compléter, destiné à évaluer la présence d’une déficience chez de jeunes enfants. Pouvez-vous faire aussi bien qu’un enfant de 1905 en retrouvant les neuf mots manquants ?
Il fait beau, le ciel est —1—. Le soleil a vite séché le linge que les blanchisseuses ont étendu sur la corde. La toile, d’un blanc de neige, brille à fatiguer les —2—. Les ouvrières ramassent les grands draps ; ils sont raides comme s’ils avaient été —3—. Elles les secouent en les tenant par les quatre —5— ; elles en frappent l’air qui claque avec —6—. Pendant ce temps, la maîtresse de ménage repasse le linge fin. Elle a des fers qu’elle prend et repose l’un après l’autre sur le —7—. La petite Marie, qui soigne sa poupée, aurait bien envie, elle aussi, de faire du —8—. Mais elle n’a pas reçu la permission de toucher aux —9—.
Les mots « amidonnés » (3), « poêle » (7), et « fers » (9) vous ont probablement posé plus de problèmes qu’à un enfant de 1905 ; mais vous conviendrez sûrement que cette difficulté ne dit pas grand-chose de votre intelligence. Les scores d’intelligence sur ce test ont bien décliné, mais c’est plutôt l’évolution technologique du repassage qui rend le test obsolète. De la même façon, la probabilité qu’une personne dotée d’une intelligence moyenne (QI=100) réponde correctement à une question de la WAIS portant sur la pièce de théâtre Faust était de 27 % en 1999, elle est de 4 % en 2019. Ainsi, les scores aux tests de connaissance déclinent naturellement dans le temps, au fur et à mesure que la culture évolue. C’est même pour cette raison que de nouvelles versions des tests d’intelligence paraissent régulièrement : la WAIS est remise à jour tous les dix ans environ (et la WAIS-V devrait paraître en 2026).
Confondre un déclin de l’intelligence avec l’obsolescence des questions du test, c’est tout de même une grosse erreur. Comment Dutton et Lynn ont-ils pu la commettre ? C’est que l’erreur n’est pas innocente, et que ces deux auteurs ne sont pas tout à fait neutres. La discipline d’Edward Dutton est la théologie, Richard Lynn est connu pour défendre l’idée qu’il existe des différences génétiques d’intelligence entre les sexes et les origines ethniques ; les deux ont été éditeurs en chef d’une célèbre revue suprémaciste blanche (Mankind Quarterly) et leurs travaux alimentent directement les mouvements d’extrême droite.
Pour bien saisir l’agenda politique des auteurs, le mieux est peut-être de citer les explications qu’ils envisagent pour un déclin de l’intelligence. Deux extraits, issus des livres de Richard Lynn pour l’illustrer :
« … un grand nombre de gouvernements occidentaux ont contribué au déclin de l’intelligence depuis les années 1960, à travers une politique d’état-providence encourageant les femmes d’intelligence basse, de mauvaise moralité et de faible éducation à avoir des bébés… ».
« … l’immigration de masse de peuples non-européens en Europe de l’ouest, aux États-Unis et au Canada est un sérieux problème dysgénique… ils ont, en moyenne, une plus faible intelligence et une plus faible moralité… ils deviendront une majorité de la population en Europe de l’ouest… l’intelligence continuera à décliner… et la Chine deviendra une superpuissance mondiale »
Les réformes envisagées par les auteurs pour limiter le déclin de l’intelligence en Europe occidentale sont cohérentes avec leur orientation politique : on y trouve, par exemple, « abolir la sécurité sociale », « se retirer de la convention des Nations unies de 1951 sur l’accueil des réfugiés », ou encore « introduire des politiques publiques pour accroître la fertilité de ces femmes (intelligentes) qui ont été éduquées au point de perdre leur fonction reproductive ».
Aujourd’hui, nous avons la certitude qu’il n’y a pas réellement de déclin de l’intelligence en France, même si l’effet Flynn est bel et bien interrompu. Le déclin de l’intelligence dans le monde occidental n’est pas un sujet scientifique, mais plutôt un sujet politique – un argument idéal que les déclinistes utilisent pour faire peur, désigner des coupables, et promouvoir des réformes hostiles au changement.
Si cette idée a autant de succès, c’est probablement qu’elle parle à nos tendances profondes : au second siècle de notre ère, Hésiode se plaignait déjà que les nouvelles générations laissent plus de place à l’oisiveté que les précédentes. Si nous bénéficions d’un droit inaliénable à critiquer les valeurs et les goûts musicaux de nos enfants, une chose est sûre : ils ne sont pas moins intelligents que nous.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Corentin Gonthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.10.2025 à 11:37
Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation
Il est entre parenthèses, mais il donne tout son sens au thème. En ajoutant un « s » à « intelligence », pour son édition 2025, la Fête de la science (dont « The Conversation » est cette année encore partenaire) nous propose d’explorer toutes les formes d’intelligence.
Dans notre dossier spécial, vous trouverez donc aussi bien des articles sur l’IA, sur l’intelligence culturelle ou celle des animaux.
Mais en vidéo, cette année, nous avons voulu mettre l’accent sur deux formes bien spécifiques d’intelligence.
Tout d’abord celle qui permet de lutter contre la bêtise humaine. En poussant les portes de l’Inria, nous avons découvert les travaux de Célia Nouri, doctorante en intelligence artificielle, à la croisée du traitement automatique du langage et des sciences sociales. Elle développe des modèles de détection prenant en compte le contexte social et communautaire des propos haineux, modèle qui sert à mieux lutter contre le harcèlement en ligne.
Le Cnes nous a également ouvert ses portes et avec elles, l’horizon de nos préoccupations. Jacques Arnould, théologien et spécialiste en éthique du Centre national d’études spatiales, il nous encourage à réfléchir aux intelligences extraterrestres. Si demain nous devions en rencontrer, comment arriverions-nous à leur faire reconnaître notre intelligence ? Des pistes de réponse dans cette vidéo.
09.10.2025 à 15:33
Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama
Gabriel A. Pinto, Postdoctoral Researcher, Université Libre de Bruxelles (ULB)
Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.
Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.
C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.
Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?
La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.
La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.
Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.
Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.
La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.
Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.
Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.
C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.
L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.
En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.
C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).
L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.
Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).
Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.
Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
07.10.2025 à 12:09
Timothy Hearn, Lecturer, University of Cambridge; Anglia Ruskin University
Peut-on vraiment faire revenir le dodo ? Colossal Biosciences s’en rapproche grâce à l’édition génétique, mais le projet se heurte à d’énormes défis scientifiques et écologiques.
La société américaine de biotechnologie Colossal Biosciences affirme être enfin parvenue à maintenir en vie, suffisamment longtemps en laboratoire, des cellules de pigeon pour pouvoir en modifier l’ADN – une étape cruciale vers son rêve de recréer le dodo.
L’entreprise a réussi à cultiver des « cellules germinales primordiales » – des cellules embryonnaires précoces – provenant de pigeons de Nicobar, les plus proches parents vivants du dodo, et à les faire vivre pendant plusieurs semaines d’affilée. C’est une avancée que les spécialistes de la génétique des oiseaux poursuivent depuis plus de dix ans. Mais la véritable valeur de cette percée réside dans son potentiel à protéger des espèces encore existantes.
Selon Colossal Biosciences, ces cellules, une fois modifiées, pourraient être introduites dans des embryons de poulets eux-mêmes édités génétiquement, transformant ces derniers en mères porteuses pour des oiseaux disparus depuis plus de trois siècles. Cette percée s’accompagne d’un calendrier audacieux. Ben Lamm, le directeur général de Colossal Biosciences, affirme que les premiers « néo-dodos » pourraient éclore d’ici cinq à sept ans.
Il évoque aussi un objectif à plus long terme : relâcher plusieurs milliers d’oiseaux sur des sites de l’île Maurice protégés de tout prédateur, là même où vivaient les dodos avant leur disparition. Cette promesse a contribué à faire grimper la valorisation de la start-up au-delà de dix milliards de dollars, selon le site de l’entreprise.
Presque tout ce que l’on sait sur l’édition génétique des oiseaux vient des recherches menées sur le poulet, dont les cellules germinales – à l’origine des spermatozoïdes et des ovules – se développent sans difficulté dans des cultures de laboratoire classiques. Les cellules de pigeon, elles, meurent généralement en quelques heures en dehors de leur organisme.
Colossal Biosciences affirme avoir testé plus de 300 combinaisons de facteurs de croissance – des substances qui stimulent la multiplication cellulaire – avant d’en trouver une réellement efficace. Ces cellules peuvent désormais être chargées de fragments d’ADN reconstitués et d’interrupteurs moléculaires contrôlant la forme du crâne, la taille des ailes et la masse corporelle.
Si les modifications prennent, ces cellules altérées migreront vers les ovaires ou les testicules d’un embryon de poulet encore à un stade précoce de développement, de sorte que l’animal adulte pondra des œufs ou produira du sperme porteur du génome modifié.
Ce procédé pourrait donner naissance à un oiseau qui ressemble à un dodo, mais la génétique ne raconte qu’une partie de l’histoire. Le génome du dodo a été reconstitué à partir d’os et de plumes conservés dans des musées, et les zones manquantes ont été comblées avec de l’ADN de pigeon ordinaire.
Parce que l’espèce est éteinte et ne peut plus être étudiée, on ignore encore largement les gènes impliqués dans son comportement, son métabolisme ou ses défenses immunitaires. Reconstituer les régions connues de son ADN, lettre par lettre, nécessiterait des centaines de modifications distinctes. Le travail à accomplir serait d’une ampleur sans précédent, bien au-delà de tout ce qui a été tenté dans les programmes de sélection agricole ou de recherche biomédicale, même si Colossal Biosciences semble prête à investir massivement pour y parvenir.
Reste aussi la question du poulet porteur. Un œuf de poule pèse bien moins qu’un œuf de dodo. Dans les collections muséales, il n’existe qu’un seul œuf de dodo connu, d’une taille comparable à celle d’un œuf d’autruche. Même si un embryon parvenait à survivre aux premiers stades, il dépasserait rapidement la taille de la coquille et devrait éclore avant d’être complètement formé – comme un prématuré nécessitant des soins intensifs. Le poussin devrait donc recevoir une surveillance et des soins constants pour atteindre le poids historique du dodo, estimé entre 10 et 20 kilos.
Des poules « génétiquement réinitialisées », modifiées par édition du génome, ont déjà pondu avec succès des œufs appartenant à des races rares de poulets, démontrant que la gestation croisée par cellules germinales fonctionne en principe. Mais appliquer cette technique à une espèce disparue et de taille bien supérieure reste totalement inédit.
C’est pour ces raisons que de nombreux biologistes préfèrent parler de « remplacement fonctionnel » plutôt que de « désextinction ». Ce qui pourrait éclore serait un hybride : principalement un pigeon de Nicobar, enrichi de fragments d’ADN de dodo et incubé dans un œuf de poule. Mais parler de résurrection relève davantage du marketing que de la science.
La tension entre promesse et réalité a marqué les précédents projets de Colossal Biosciences. Les loups sinistres (Aenocyon dirus) présentés en août 2025 se sont révélés être des clones de loups gris avec quelques modifications génétiques. Des experts en conservation ont averti que ce type d’annonces peut inciter la société à considérer l’extinction comme réversible, réduisant ainsi le sentiment d’urgence à protéger les espèces menacées.
Malgré tout, la percée réalisée sur les pigeons pourrait profiter aux espèces encore vivantes. Environ un oiseau sur huit est aujourd’hui menacé d’extinction, selon l’évaluation mondiale de 2022 de BirdLife International. La culture de cellules germinales offre un moyen de préserver la diversité génétique sans avoir à maintenir d’immenses populations captives, et éventuellement de réintroduire cette diversité dans la nature.
Si la technique s’avère sûre chez les pigeons, elle pourrait aider à sauver des oiseaux en danger critique, comme l’aigle des Philippines ou le perroquet à ventre orange d’Australie. La population sauvage de ce dernier ne compte plus qu’environ 70 individus et avait même chuté à seulement 16 en 2016.
Une porte-parole de Colossal Biosciences a déclaré que l’entreprise respecte ses jalons scientifiques, mais que l’obtention d’éléphants mères porteuses et de cellule-œuf appropriés pour leur projet de mammouth laineux « implique une logistique complexe échappant à notre contrôle direct » et que « nous accordons la priorité au bien-être animal, ce qui signifie que nous ne précipitons aucune étape cruciale ».
Elle a ajouté que, selon les recherches de l’entreprise, les travaux de désextinction accentuent au contraire l’urgence de protéger les espèces menacées. « L’important, c’est que nous ne remplaçons pas les efforts de conservation existants, nous y ajoutons de nouvelles ressources et renforçons l’implication du public », a-t-elle précisé.
« Notre travail apporte des financements entièrement nouveaux à la conservation, provenant de sources qui n’investissaient pas auparavant dans la protection de la biodiversité. Nous avons ainsi attiré plusieurs centaines de millions de dollars de capitaux privés qui n’auraient autrement pas été consacrés à des projets de conservation. De plus, les outils génétiques que nous développons pour la désextinction sont déjà utilisés aujourd’hui pour aider des espèces menacées. »
Pour qu’un retour d’oiseaux proches du dodo soit possible sur l’île Maurice, il faut d’abord qu’y soit réunies les conditions fondamentales pour leur conservation. Il sera nécessaire d’éradiquer les rats, qui s’attaquaient aux dodos, de contrôler les populations de singes et de restaurer la forêt. Ces actions demandent des financements et l’adhésion des populations locales, mais elles bénéficient immédiatement à la faune encore présente. Colossal Biosciences devra respecter son engagement envers une gestion écologique durable.
Mais, au sens strict, le dodo du XVIIe siècle est irrécupérable. Ce que le monde pourrait voir d’ici à 2030 n’est qu’une expérience vivante, illustrant les avancées de l’édition génétique. L’intérêt de cet oiseau ne résidera pas dans la convocation du passé mais dans sa capacité à aider les espèces actuelles à ne pas connaître le destin du dodo.
Timothy Hearn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.