23.04.2026 à 16:14
Guillaume Guérard, Enseignant-chercheur, Intelligence Artificielle, ESILV, Pôle Léonard de Vinci

La plupart des algorithmes performants actuels – notamment l’apprentissage profond (deep learning) et ses réseaux de neurones – fonctionnent comme des boîtes noires. On sait qu’ils donnent de bons résultats, mais impossible de comprendre leur logique interne. Ceci pose problème pour de nombreux domaines d’application (médecine, justice…), ce qui incite les régulateurs à exiger des systèmes « explicables ». Plusieurs pistes vers l’explicabilité existent. Zoom sur la « prétopologie ».
Imaginons un patient dont les résultats sanguins montrent un taux d’hémoglobine de 12,5 grammes par décilitres de sang. Un algorithme de détection précoce du cancer analyse ces chiffres, mais aussi ses antécédents familiaux (présents ou absents), son statut de fumeur (oui ou non), son niveau d’activité physique (faible, moyen, élevé). L’algorithme le classe dans un groupe à risque modéré. Mais quand son médecin lui demande pourquoi, le système ne peut pas répondre : c’est une boîte noire.
Et c’est évidemment un problème pour le patient, le médecin, l’assurance maladie, etc. C’est pour cela que l’AI Act européen, adopté en mars 2024, impose des obligations strictes aux organisations et entreprises opérant en Europe. D’ici 2026-2027, tous les systèmes d’IA dits à haut risque devront être « transparents » et « explicables », c’est-à-dire dont un humain puisse comprendre la logique. Les sanctions pourront atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, car les domaines concernés peuvent avoir des effets importants.
Par exemple, en ressources humaines, les logiciels de tri de CV qui analysent à la fois des niveaux de diplômes, des années d’expérience et des compétences techniques doivent pouvoir justifier pourquoi un candidat est retenu et un autre écarté. Dans l’industrie énergétique, les systèmes de maintenance prédictive qui combinent données de capteurs (température, vibrations), historique de maintenance et type d’équipement doivent expliquer pourquoi une éolienne ou un autre équipement est signalé comme « à risque de panne ».
Pour contrer l’« effet boite noire » des systèmes d’IA actuels, nous proposons une méthode issue d’une discipline méconnue du grand public, la « pré-topologie », qui permet de rendre explicables les raisonnements faits sur des données mixtes (le taux d’hémoglobine est un chiffre tandis que la présence ou non d’antécédents familiaux ne se chiffre pas).
Le clustering hiérarchique est aujourd’hui la méthode de référence pour regrouper automatiquement des observations similaires et donc pour rendre les données plus interprétables : en organisant les observations en une hiérarchie de groupes emboîtés (un dendrogramme), il permet à un expert de naviguer entre niveaux de granularité, d’identifier des profils types et d’expliquer pourquoi deux individus sont regroupés ensemble, sans avoir à ouvrir la “boîte noire” d’un modèle prédictif.
Son fonctionnement est simple et transparent. On mesure d’abord la distance entre chaque paire d’observations. Ensuite, on regroupe progressivement les observations les plus proches. Enfin, on obtient un arbre (appelé dendrogramme) qu’on peut couper à différents niveaux pour former des groupes.
Prenons l’exemple des manchots de l’archipel Palmer en Antarctique. Si on mesure la longueur de leur bec et leur masse corporelle, le clustering hiérarchique identifie automatiquement trois groupes qui correspondent aux trois espèces biologiques présentes : Adélie, Jugulaire et Papou. L’atout majeur est sa transparence : on visualise l’arbre, on suit les regroupements successifs, on comprend facilement comment les groupes se sont formés, la hauteur d’embranchement donne une idée de la « différence » entre deux groupes.
Le défi survient quand on mélange chiffres et catégories. Mesurer une distance entre deux chiffres est facile : si un patient a une glycémie de 5,5 millimoles par litres (une unité de concentration) et un autre de 6,2 millimoles par litres, la différence est de 0,7. Mais comment mesurer la distance entre deux « catégories » que l’on ne peut pas chiffrer, comme une réponse oui ou non (fumeur ou non-fumeur), ou encore la couleur d’un tissu biologique ?
Par exemple, dans notre exemple de détection précoce du cancer, si le patient A présente une concentration d’hémoglobine de 12,5 grammes par décilitres (chiffre), des antécédents familiaux (catégorie « oui ») et ne fume pas (catégorie « non ») ; tandis que le patient B présente une concentration d’hémoglobine de 13,1 grammes par décilitres, pas d’antécédents et fume… comment dire si ces deux patients sont « proches » ou « éloignés », en termes de risques ?
Les solutions existantes, comme le k-means, HDBSCAN et DIANA ont toutes des limites. Transformer les catégories en chiffres artificiels (« oui » = 1, « non » = 0) est arbitraire et fait perdre du sens. Plus précisément, ceci signifie que l’on introduit une relation d’ordre et une distance qui n’existent pas : coder « chat » = 1, « chien » = 2, « oiseau » = 3 suggère implicitement que chien est « entre » chat et oiseau, ou que la distance chat-chien est égale à chien-oiseau, ce qui peut biaiser tous les calculs de similarité en aval.
Ignorer les catégories pour ne garder que les chiffres, comme dans les méthodes citées précédemment, fait perdre des informations cruciales comme les antécédents familiaux. Les méthodes statistiques plus complexes sont souvent opaques ou nécessitent des hypothèses fortes sur la structure des données. C’est le cas de la distance de Gower ou de l’analyse des facteurs latents – le genre de structure qui peut se cacher derrière les grands modèles de langage (LLM).
C’est précisément dans la définition de ces voisinages – comment mesurer qu’un patient « ressemble » à un groupe malgré des données hétérogènes – que la prétopologie offre un cadre naturel : elle permet de construire des zones d’influence flexibles, sans imposer de distance artificielle ni d’hypothèses sur la structure des données.
Pour cela, au lieu de chercher à mesurer des distances, nous proposons de changer de perspective en définissant des « voisinages », construits via des formes normales disjonctives, ou DNF. Derrière ce nom se cachent des règles logiques simples du type : « Un patient appartient au voisinage d’un groupe si (il est diabétique ET âgé de plus de 60 ans) OU (il a des antécédents familiaux ET est hypertendu) ». Chaque condition entre parenthèses est un bloc ; le voisinage est l’union de ces blocs. Pas de chiffres, pas de distance : seulement des combinaisons de caractéristiques, comme des règles de décision lisibles.
Une fois les voisinages définis, on calcule pour chaque groupe l’ensemble de tous les patients qui lui « adhèrent » – c’est-à-dire qui tombent dans au moins un de ces blocs DNF. Ce calcul d’adhérence est itératif : à chaque étape, des patients rejoignent ou quittent un groupe, jusqu’à stabilisation. Le résultat est analogue à un dendrogramme : on obtient une hiérarchie de regroupements successifs, du plus local (blocs fins, peu de patients) au plus global (grands groupes stables), sans avoir jamais posé de distance artificielle entre catégories et chiffres.
Une analogie aide à comprendre. Sur une carte géographique, on mesure la distance entre Paris et Lyon en kilomètres. Mais on peut aussi dire que Dijon est voisine de Lyon parce qu’elles partagent des caractéristiques : région similaire, climat comparable, économie proche. Cette notion de « voisinage » par caractéristiques communes ne nécessite pas de calculer une distance précise.
C’est le principe de base de PretopoMD, notre algorithme qui classe automatiquement des données mixtes (chiffres et catégories) tout en rendant explicite sa logique de regroupement. Pour les chiffres, deux valeurs sont voisines si elles tombent dans la même fenêtre : toutes les glycémies entre 5 et 7 mmol/L sont voisines. Pour les catégories, deux observations sont voisines si elles partagent la même modalité : deux patients sont voisins s’ils sont tous deux fumeurs, ou si tous deux ont des antécédents familiaux.
PretopoMD est d’ores et déjà disponible en accès libre pour permettre à des équipes en santé, RH ou maintenance de l’utiliser pour des études pilotes. À moyen terme, nous espérons que cette approche puisse aider les organisations européennes à répondre aux exigences de l’AI Act en proposant des classifications explicables par construction.
L’avantage clé est la traçabilité. Pour notre exemple médical, on peut dire :
« Les patients A et C sont dans le même groupe parce qu’ils partagent une glycémie dans la fenêtre 5-7 millimoles par litres (étape 1), tous deux ont des antécédents familiaux (étape 1), et tous deux ont un IMC entre 25-30 (étape 2). Le patient B les rejoint à l’étape 3 via un IMC similaire, malgré l’absence d’antécédents. »
Cette explication pas-à-pas répond directement aux exigences de l’AI Act. De plus, la structure hiérarchique est préservée, on peut identifier grands groupes et sous-groupes pertinents.
Néanmoins, notre algorithme possède des limites, puisqu’il faut choisir la taille des fenêtres et les seuils de similarité, faisant actuellement appel à un expert métier. Nous travaillons sur des méthodes pour automatiser ces choix.
Ainsi, la question reste ouverte : jusqu’où peut-on pousser la performance tout en conservant l’explicabilité ? Dans des domaines sensibles comme la santé ou le droit, ce compromis est-il acceptable ? Notre travail montre qu’on peut au moins explorer cette voie.
Guillaume Guérard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2026 à 16:01
Julien Mozziconacci, Professeur en biologie computationelle, Muséum national d’histoire naturelle (MNHN)
Élodie Laine, Professeure en biologie computationnelle, Sorbonne Université
Plutôt que de produire des mots, le modèle d’intelligence artificielle Evo 2 est capable de prédire une base d’ADN en se fondant sur une séquence donnée. Lancé, il y a un peu plus d’un an, le modèle s’affine et permet aux scientifiques de mieux comprendre le langage de l’ADN. Sa puissance de calcul pose néanmoins des questions de ressources énergétiques.
Si vous avez déjà utilisé un modèle de langage comme ChatGPT ou Mistral, vous vous souvenez sans doute de la première impression : orthographe impeccable, grammaire fluide, phrases qui ont du sens. Pourtant, sous le capot, ces systèmes ne font qu’une chose très simple : prévoir dans une phrase le mot qui va suivre. Ils utilisent des statistiques apprises sur un immense corpus de textes, et c’est ainsi qu’ils « parlent » français, anglais et bien d’autres langues.
Une idée féconde a alors germé chez les généticiens : et si l’on entraînait la même classe de modèles pour apprendre le langage de la vie, la suite de lettres A, T, G, C, inscrite dans nos génomes ? C’est le pari des modèles de langage génomiques : ils apprennent la grammaire cachée de l’ADN et offrent à la recherche un allié précieux pour explorer, proposer et tester plus vite des hypothèses scientifiques.
Un algorithme d’intelligence artificielle (IA) est, au fond, une machine à transformer des nombres. Les données d’entrée, qui peuvent être des images, des sons ou du texte, sont d’abord encodées en chiffres. Puis l’algorithme applique des opérations simples (additions et multiplications par des paramètres internes au réseau et seuillage) et renvoie les résultats (d’autres chiffres) en sortie. À grande échelle, cette mécanique très simple suffit à jouer au go, à conduire une voiture… ou à comprendre les génomes.
L’astuce, ce n’est pas seulement l’encodage : c’est surtout l’apprentissage. Le modèle ajuste ses paramètres internes à chaque exemple (association entre une entrée et une sortie cible), un peu comme on accorde un instrument : à chaque note jouée, on tend ou détend la corde jusqu’à ce que la mélodie sonne juste.
Les applications de ce principe simple sont multiples et variées. Au jeu de go, l’IA regarde la position des pierres (un tableau de chiffres) et propose le prochain coup ; dans une phrase, le modèle suggère le prochain mot. En génomique, il lit A T G C… et prédit la prochaine base. Si ses prédictions sont bonnes, c’est qu’il a appris quelque chose sur la structure cachée du problème qu’il résout.
C’est en suivant ce principe que les premiers modèles de langage génomiques ont été entraînés en utilisant des génomes à la place des corpus de texte. Une des versions les plus récentes, Evo 2, a été développée par une large équipe autour du centre de recherche Arc Institute, dans la Silicon Valley. Ce modèle a été entraîné sur de nombreux génomes, comptabilisant près de 10 000 milliards de bases (les fameuses lettres A,C,G,T) ce qui représente 3 000 fois la taille de notre génome.
Le modèle lit à chaque étape un million de bases et le calcul revient toujours à la même question très simple : parmi les quatre lettres possibles (A, C, G ou T), laquelle est la plus probable juste après celles que l’on vient de lire ? La taille gigantesque de sa « fenêtre de lecture » lui permet de saisir à la fois des règles locales et des dépendances lointaines (régulations des gènes à distance). Ce saut d’échelle n’est pas qu’une prouesse technique : il change la manière dont on peut poser des questions en biologie, notamment dans ces régions non codantes (celles qui ne sont pas traduites en protéines) qui restent souvent incomprises et constituent la « matière noire » du génome.
Dans la pratique, l’apprentissage ressemble à une partie de devinettes : à chaque fois que le modèle devine correctement une lettre masquée au sein d’une séquence, il renforce les chemins internes qui l’y ont mené ; lorsqu’il se trompe, il corrige ces chemins. À force, il repère des schémas récurrents : certains motifs précèdent souvent le début d’un gène, d’autres signalent la fin, et certains motifs de la séquence trahissent la façon dont la cellule découpe l’ARN (l’épissage) ou assemble la machinerie de traduction des ARN en protéines.
L’apprentissage se fait d’abord à l’échelle globale. Le modèle lit une grande diversité de génomes et apprend une grammaire générale du vivant. Ensuite, on peut éventuellement l’adapter à une famille d’organismes ou à une question précise (par exemple, en le spécialisant sur un groupe de virus ou de bactéries).
C’est ici que la recherche s’enthousiasme : en apprenant juste à compléter les séquences, les modèles reconnaissent des signatures biologiques sans qu’on les leur ait pointées du doigt.
Ils retrouvent la périodicité en trois lettres du code génétique : le texte du vivant se lit par triplets (les codons), et les modèles « entendent » ce rythme, comme une mesure en musique. Ils repèrent aussi les départs et arrêts de gènes, avec des contraintes fortes sur les lettres les plus importantes, où l’on s’attend à ce que l’erreur soit rare. Ils détectent des signaux utiles à la machinerie cellulaire : chez les bactéries, les sites de liaison du ribosome ; chez les eucaryotes, les frontières entre exons (conservés) et introns (séquences à retirer), comme si le modèle distinguait les paragraphes et les espaces dans un texte.
Plus étonnant, ils révèlent aussi les éléments mobiles (par exemple, des virus intégrés au génome au cours de l’évolution) et même des empreintes liées aux formes 3D des protéines (hélices α, feuillets β) et des ARN. Le modèle dessine alors les contours de la sculpture finale. Car c’est bien de sculpture qu’il s’agit.
Le génome ne contient pas seulement des instructions – il encode des formes. Une protéine, un ARN, ne sont pas de simples colliers de lettres : ils se replient, se tordent, se nouent dans l’espace pour adopter une architecture précise, dont dépend leur fonction. C’est cette forme qui permet à une molécule de reconnaître une autre, de s’y accrocher, de déclencher une réaction. Les contacts qui stabilisent cette forme se font parfois entre des régions très éloignées dans la séquence – et pourtant, les modèles semblent capables de les capturer, comme s’ils devinaient, à force de lire le texte, quelles lettres se correspondent malgré la distance qui les sépare.
Ce qui peut surprendre, c’est que ces découvertes n’ont pas été enseignées : elles émergent spontanément de l’apprentissage. Et parfois, paradoxalement, quand on essaie d’affiner le modèle en lui montrant des exemples bien connus, il perd une partie de ce qu’il avait trouvé seul. Comme si trop guider l’élève lui faisait oublier ce qu’il avait intuitivement compris.
Pour rendre cette « boîte noire » plus lisible, les chercheurs utilisent des « autoencodeurs clairsemés » qui décomposent les représentations internes du modèle en traits compréhensibles. Chaque trait s’allume comme une lampe au-dessus d’un élément de séquence (exon, motif, élément mobile). Ces traits servent de fil d’Ariane. Ils indiquent où le modèle a vu un signal, de quel type il est et comment il varie d’un organisme à l’autre. On peut même transférer ces traits vers des génomes peu étudiés, ouvrant la voie à des atlas fonctionnels multi‑espèces construits de manière plus rapide et moins coûteuse que par les approches classiques.
Dans nos propres recherches, Evo 2 est surtout un point de comparaison : il montre jusqu’où peut aller un très grand modèle quand on lui donne énormément de données et de puissance de calcul. Il faut aussi voir que cette démonstration a une dimension vitrine pour Nvidia, le plus gros fabricant de processeurs pour l’IA, qui a mis sa puissance de calcul au service de l’Arc Institute pour concevoir Evo 2. L’idée sous-jacente est de montrer qu’il faut des modèles gigantesques et des infrastructures de calcul hors normes pour déchiffrer le secret de la vie. Le résultat est impressionnant, mais ce n’est pas forcément le seul chemin possible pour faire avancer la biologie.
Nous avons justement lancé le projet PLANETOID, financé dans le cadre de France 2030, pour explorer une stratégie complémentaire : construire des modèles beaucoup plus petits, plus rapides, plus faciles à entraîner et à déployer dans des laboratoires académiques. L’objectif est d’exploiter des données de biodiversité riches, produites par nos partenaires – en particulier au Muséum national d’histoire naturelle et dans les stations marines – afin d’annoter des génomes et des métagénomes (des ensembles de génomes) à l’échelle de l’arbre du vivant, y compris pour des espèces dites « non modèles », qui représentent l’immense majorité du vivant, mais restent souvent mal comprises.
PLANETOID vise aussi à produire des ressources et des outils réutilisables, pour que ces approches ne restent pas réservées à quelques acteurs capables de mobiliser des moyens industriels, mais puissent irriguer la recherche publique, puis à terme la santé et l’environnement.
Parce qu’un modèle de langage assigne une vraisemblance à chaque séquence, il devient possible de comparer la version de référence et une version mutée. Si la mutation fait chuter la vraisemblance, elle devient suspecte. Ce score agit comme une carte pour guider les chercheurs : il montre des zones où une variation risque de perturber une fonction et oriente les expériences à prioriser.
Une autre application a le vent en poupe : la génération de séquences « fonctionnelles » in silico. Les chercheurs ont montré qu’on peut composer du texte génétique qui a toutes les caractéristiques de génomes naturels. Toutefois cette pratique soulève d’importantes questions éthiques (risques eugénistes, possibilité de virus synthétiques…) et doit rester strictement encadrée – c’est un sujet de société plus qu’un enjeu immédiat de recherche.
Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.
Élodie Laine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.04.2026 à 15:44
Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques ordinaires sont devenues un enjeu central de sécurité pour les environnements sensibles. De simples données de déplacement issues d’un footing, enregistrées et partagées par une application publique, ont pu être utilisées pour localiser des navires ou des bases militaires.
Un footing, en apparence, n’a rien de sensible. Pourtant, en mars 2026, une activité enregistrée sur Strava par un militaire français a permis de localiser en temps quasi réel le porte‑avions Charles-de-Gaulle en Méditerranée orientale. Dès 2018, la carte de chaleur mondiale de Strava – une visualisation agrégée des activités publiques enregistrées par ses utilisateurs – avait déjà révélé des bases militaires et des sites sensibles, et des enquêtes plus récentes ont montré que les pratiques sportives de gardes du corps pouvaient trahir des habitudes de déplacement de chefs d’État.
Le problème ne vient pas d’un piratage sophistiqué, mais d’un usage banal de montre connectée, compte public et trace GPS accessible en ligne. Ce cas illustre comment la sécurité d’aujourd’hui ne se limite plus à la protection physique, mais inclut aussi la maîtrise des traces numériques produites par nos comportements les plus ordinaires.
Strava est une application conçue pour suivre et partager des performances sportives. Son usage premier relève du loisir, de la sociabilité numérique et du suivi de soi, non de la documentation d’activités sensibles. C’est pourtant là toute l’ambivalence de ce type d’outils car sans avoir été pensés pour la sécurité, ils peuvent produire des effets très concrets sur elle.
À mesure que les technologies de traçabilité s’installent dans les usages quotidiens, elles cessent d’apparaître comme des dispositifs de contrôle. Elles deviennent des outils familiers, associés au confort ou à l’optimisation des pratiques. Dès lors, une course, un itinéraire répété, un point de départ ou d’arrivée ou une activité enregistrée en mer peuvent révéler bien davantage qu’une simple pratique sportive. Une donnée de performance peut devenir un indice sur une routine, une présence ou une habitude de déplacement.
Le cas Strava n’est d’ailleurs pas isolé. À l’aéroport d’Heathrow (Londres), en 2014, des toilettes connectées ont été testées pour mesurer anonymement leur fréquentation, améliorer le nettoyage et mieux répartir les moyens de maintenance. L’exemple peut sembler éloigné, mais il montre que, au-delà des outils explicitement sécuritaires, des dispositifs connectés collectent eux aussi discrètement des traces numériques sur les comportements des usagers. En ce sens, la vulnérabilité ne naît plus seulement d’une attaque ou d’une fuite volontaire, mais aussi d’usages ordinaires dont les effets de visibilité sont souvent sous-estimés.
Longtemps, la sécurité a été pensée selon un modèle essentiellement physique. Il fallait protéger une personne, sécuriser un déplacement, contrôler un périmètre, anticiper une menace. Cette logique est toujours d’actualité mais, à l’ère numérique, elle ne suffit plus.
Dans un environnement saturé d’objets connectés, de plateformes et de données de localisation, la vulnérabilité peut désormais naître à la périphérie du dispositif de protection. Elle ne résulte plus forcément d’une intrusion ou d’une action malveillante. Elle peut venir d’un usage mal paramétré, d’une routine numérique non interrogée ou d’un outil utilisé sans conscience de ses effets de visibilité.
La sécurité d’un responsable politique, d’un chef d’entreprise, d’un diplomate ou d’un site sensible dépend donc aussi des traces numériques produites par son environnement humain et technique : assistants, chauffeurs, escortes, collaborateurs, militaires, objets connectés, applications de suivi ou réseaux de partage. Protéger une « personne sensible », une personnalité, aujourd’hui, ce n’est plus seulement protéger son corps ou son itinéraire. C’est aussi protéger l’écosystème informationnel qui l’entoure.
Cette évolution renvoie à une sécurité de plus en plus renforcée par la technologie via les capteurs, les données et les outils de suivi. Mais l’ajout de technologie ne supprime pas la vulnérabilité. C’est justement le problème d’une lecture technosolutionniste qui surestime la complémentarité humain-machine. Elle rappelle au contraire qu’une technologie n’est efficace qu’à condition d’être articulée à l’analyse humaine, à l’expérience de terrain et à une compréhension fine du contexte. Certes, la technologie renforce donc la vigilance, mais elle ne remplace ni le jugement, ni la formation, ni la culture du risque.
La vulnérabilité observée est également organisationnelle, culturelle et humaine. Elle naît d’une forme de non-concordance entre la banalité des usages numériques (courir avec une montre connectée, par exemple) et la sensibilité des environnements dans lesquels elles s’inscrivent (être dans un endroit classifié secret-défense). Un même outil peut être perçu comme un outil de confort ou de performance tout en produisant des effets d’exposition importants.
Former devient donc aussi important qu’équiper dans la mesure où il ne s’agit pas seulement d’interdire certains usages, mais plutôt de faire comprendre comment une trace numérique par définition invisible peut, par agrégation et recoupement, devenir une information sensible. La sécurité ne se joue donc plus dans le contrôle des outils, mais dans l’intelligence des pratiques.
L’un des principaux enseignements de ces affaires est qu’aucune technologie ne protège à elle seule. Une application, une montre connectée ou un dispositif de géolocalisation ne sont ni bons ni mauvais en soi. Comme le montre la recherche, tout dépend du cadre dans lequel ils sont utilisés, des règles qui les entourent et de la capacité des acteurs à en comprendre les effets. Raison pour laquelle la réponse ne peut pas être juste « technique ».
Elle suppose aussi une doctrine d’usage, une formation adaptée et une culture sécuritaire partagée. À l’inverse la traçabilité peut aussi renforcer la protection, mais elle ne remplace ni l’analyse humaine, ni l’appréciation du contexte, ni les méthodes classiques de sécurité.
Autrement dit, la sécurité des environnements sensibles repose sur une complémentarité entre l’outil et l’humain. Il ne suffit pas de déployer des dispositifs ; encore faut-il que les utilisateurs comprennent ce qu’ils produisent, ce qu’ils exposent et les conséquences possibles de leurs usages entre une possible surveillance et une souveillance, c’est-à-dire une forme plus discrète de captation des traces intégrées aux gestes ordinaires et parfois à peine perçue par ceux qui y participent.
Dans le cas Strava, l’enjeu n’est donc pas seulement de mieux paramétrer une application. Il est de construire une culture du risque numérique, capable d’intégrer les gestes les plus ordinaires à la réflexion sécuritaire.
Ce que la recherche nous enseigne en lien avec ces cas est que la vraie leçon de ces affaires est peut-être là : dans un monde connecté, la menace ne réside pas seulement dans ce que l’on cherche à cacher, mais aussi dans ce que l’on produit sans y penser.
Ces affaires dites « StravaLeaks » montrent que la traçabilité numérique, loin d’être un simple confort d’usage, peut devenir un enjeu de sûreté dès lors qu’elle s’inscrit dans un environnement sensible. Protéger, aujourd’hui, ce n’est plus seulement verrouiller un périmètre ou escorter une personnalité. C’est aussi apprendre à gouverner les traces que produisent les usages les plus ordinaires.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.04.2026 à 16:14
Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle
Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Le dimanche 29 mars a eu lieu l’inauguration en grande pompe du nouvel espace World of Frozen, inspiré de la franchise de films d’animation éponyme, dans le parc secondaire de Disneyland Paris rebaptisé pour l’occasion Disney Adventure World. Mais derrière cette extension historique du parc parisien, dans laquelle a été recréé un fjord, ainsi qu’une une « Montagne du Nord » de 36 mètres de haut, ce sont les objets géologiques emblématiques de l’environnement scandinave et alpin qui sont mis en avant et ainsi rendus visibles pour le grand public.
Rappelez-vous le film La Reine des Neige, dans lequel après avoir révélé ses pouvoirs, le personnage principal, Elsa, se réfugie dans un palais de glace qu’elle bâtit au creux de la Montagne du Nord. C’est cette Montagne du Nord, plus vraie que nature et culminant à 36 mètres de haut, qui a été recréée en surplomb du « Monde de la Reine des Neiges ». Si cet élément de décor n’a bien sûr rien de naturel dans sa fabrication, il reprend l’ensemble des formes et des types de roches présents dans la représentation imaginaire de l’environnement nordique et alpin.
Ainsi, le premier élément visible pour le visiteur qui découvre le World of Frozen est cette montagne sous la forme d’un pic pyramidal presque parfait. Cette représentation du pic montagneux « idéal » est directement inspirée du sommet du Cervin dans les Alpes Suisses (ou Matterhorn en allemand).
Le Cervin est une montagne devenue emblématique depuis les débuts de l’alpinisme et sa première ascension en 1865. La forme pyramidale du Cervin est issue de la combinaison entre l’érosion différentielle, c’est-à-dire l’érosion qui affecte différemment les roches en fonction de leur résistance relative, et la structure tectonique même des Alpes. Le Cervin est situé au centre de la chaîne alpine au cœur d’une large nappe de charriage, c’est-à-dire un ensemble géologique qui a subi un large déplacement latéral : la nappe de la Dent Blanche. Les roches qui composent le Cervin sont essentiellement des gneiss et des granites dans sa partie basale – des roches très dures – tandis que sa petite partie sommitale est constituée de paragneiss et de schistes bien plus facilement érodés. Les gneiss et granites très durs qui composent sa base ont permis l’émergence d’arêtes très nettes, qui ont amenés à cette forme pyramidale aujourd’hui caractéristique et reconnaissable entre toutes.
Une fois passé ce premier sommet emblématique, le regard du visiteur se déplace vers un relief qui s’adoucit : une succession de collines et de plateaux dont la base est clairement inspirée par les orgues basaltiques.
Ce paysage de collines douces et de pentes herbeuses qui surplombent un alignement basaltique et des habitations typiques est comparable au relief volcanique d’Arthur’s Seat à Édimbourg, en Écosse. Au bout du Royal Mile et jouxtant le palais de Holyrood, le relief d’un ancien volcan marque le paysage écossais. Cet ancien relief volcanique présente à sa base des orges basaltiques typiques, issus du refroidissement rapide des coulées volcaniques, et des sommets herbeux adoucis.
À lire aussi : Images de science : d’où viennent les orgues basaltiques ?
Moins connu en France que le Cervin, Arthur’s Seat (ou Trône d’Arthur en traduction littérale) n’en est pas moins emblématique, faisant directement référence à la légende arthurienne.
A la différence du Cervin, à composition essentiellement gneissique et granitique, Arthur’s Seat est donc de composition volcanique basaltique. C’est dans cette juxtaposition entre un soubassement volcanique, sur lequel s’adosse un village typique, et un sommet pyramidal que vient s’ancrer la reconstitution des reliefs emblématiques du land. Dans la nature, il serait peu probable de retrouver un sommet gneissique surplombant directement une coulée volcanique. En revanche, la juxtaposition de sommets mythiques par leur forme fonctionne, car elle fait appel à notre imaginaire tout en s’appuyant sur des images bien ancrées dans les représentations partagées de la montagne et des paysages nordiques.
L’ensemble du nouvel espace World of Frozen, qui s’étend au pied de la Montagne du Nord s’articule autour d’un fjord recréé de toutes pièces, offrant aux visiteurs un nouveau lieu de spectacle.
Le fjord est une figure géomorphologique majeure des côtes scandinaves, issue de la combinaison complexe entre l’érosion glaciaire et la remise en eau des vallées. C’est une avancée de la mer à l’intérieur des terres, entourée de reliefs escarpés façonnés par l’érosion glaciaire.
Lors de la dernière glaciation, la calotte glaciaire descendait très au sud depuis les pôles. Les glaciers creusent alors, partout en Europe de l’Ouest, les typiques vallées glaciaires en U ou vallées en auges, caractérisées par de grandes parois abruptes et un fond plat. Ces vallées sont également très profondes en raison de la baisse simultanée du niveau des mers et des océans, qui crée un déséquilibre : les fleuves et les glaciers doivent creuser davantage pour retrouver le niveau de base des mers, dont l’eau est alors retenue sur les calottes polaires.
Lorsque la dernière glaciation prend fin il y a environ 10 000 ans, les glaciers fondent partout en Europe. L’eau, désormais sous forme liquide, entraîne une remontée du niveau des mers et des océans. Survient alors la mise en eau des vallées glaciaires abandonnées qui deviennent des fjords en Scandinavie. Mais si les fjords sont essentiellement présents sur les côtes de la Norvège et de l’Islande, ils existent aussi bien plus près de nous en France, on les appelle abers en Bretagne et calanques en Provence.
Les trolls sont présents partout dans le Monde de la Reine des Neiges : dans l’attraction Frozen Ever After bien sûr, mais aussi sous forme de personnage dans le land et même disponibles à l’achat sous forme de figurines interactives à ramener chez soi. Dans La Reine des Neiges, les trolls sont des créatures rondes, trapues, qui se confondent volontiers avec des rochers. Ce n’est pas une invention fortuite des scénaristes, mais le reflet fidèle d’une croyance très ancienne du folklore scandinave, elle-même enracinée dans l’observation des paysages de granite érodé de Norvège, de Suède et du Danemark.
La légende veut que les trolls, surpris par la lumière du soleil, soient transformés en pierre. C’est pourquoi, partout en Norvège, des formations rocheuses arrondies évoquent leurs silhouettes : une main, un dos, un gros nez. Pour les populations nordiques, ces blocs de granite aux formes anthropomorphes n’étaient pas le fruit du hasard géologique, ils étaient les restes pétrifiés de créatures nocturnes trop lentes à regagner leurs cavernes.
La réalité géologique de ces formes est tout aussi remarquable que le mythe. Les granites, roches magmatiques intrusives formées en profondeur par cristallisation lente d’un magma, présentent des fractures naturelles qui les découpent en blocs lors de leur mise en place. L’altération, sous l’action du gel, de l’eau, de la végétation et des glaciers, attaque préférentiellement les angles et les arêtes. C’est le phénomène d’érosion en boule : les coins disparaissent les premiers, et le bloc cubique se transforme progressivement en boule. On parle alors de boules de granite, ou parfois de chaos granitiques lorsqu’elles s’accumulent en amas spectaculaires.
Avec l’ouverture de son nouvel espace consacré à la Reine des Neiges, Disney s’inspire une nouvelle fois des paysages et de la géologie qui nous entourent pour ancrer ses récits et ses décors dans un imaginaire partagé. Sans le savoir, le visiteur qui franchit les portes de cet univers est immergé dans un condensé d’objets géologiques qui font appel aux interactions entre tectonique, volcanisme et processus érosifs à l’œuvre dans le nord de l’Europe.
À lire aussi : Disneyland Paris, un parc d’attractions… inspiré de merveilles géologiques réelles
Le monde de la « Reine des Neiges », en reconstituant une montagne enneigée de trente-six mètres de hauteur surplombant un fjord, offre ainsi aux visiteurs une forme d’expérience géologique. Les enfants qui découvriront le château de glace d’Elsa, les falaises sombres de basalte et les trolls de pierre marcheront ainsi, sans le savoir, sur les traces du Cervin, des fjords norvégiens, d’Arthur’s Seat et des granites de Scandinavie !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.04.2026 à 08:55
Sabrina Rondeau, Postdoctoral Researcher in Pollinator Ecology, L’Université d’Ottawa/University of Ottawa
Charles-Antoine Darveau, Professor, Department of Biology, L’Université d’Ottawa/University of Ottawa
Nigel Raine, Professor/ Rebanks Family Chair in Pollinator Conservation, University of Guelph
Les colonies de bourdons dépendent entièrement de la survie des reines pendant l’hiver. Une découverte surprenante montre qu’elles peuvent respirer sous l’eau et survivre à une immersion prolongée.
Chez la plupart des espèces de bourdons, les reines passent l’hiver enfouies sous terre dans une petite cavité de la taille d’un raisin. Pendant six à neuf mois, elles attendent le retour du printemps dans un état proche du sommeil profond appelé diapause. Mais avec le changement climatique, les pluies deviennent plus intenses dans de nombreuses régions et les reines qui hivernent sous terre sont de plus en plus exposées aux risques d’inondation.
Heureusement, ces insectes peuvent survivre plusieurs jours sous l’eau sans se noyer. De façon inattendue, nos nouvelles recherches montrent qu’elles y parviennent grâce à un processus qui leur permet de passer jusqu'à huit jours immergées tout en continant à respirer.
Nous avons d’abord découvert que les reines bourdons en hivernage pouvaient survivre à une immersion grâce à un accident.
Lors d’une expérience menée à l’Université de Guelph (Ontario, Canada), certains des tubes dans lesquels les reines passaient l’hiver dans un réfrigérateur de laboratoire se sont accidentellement remplis d’eau. Au départ, nous avons pensé que les reines étaient mortes. Mais après avoir vidé l’eau, elles ont commencé à bouger et se sont rapidement rétablies, suggérant que les reines bourdons étaient en mesure de survivre à une immersion.
Nous avons alors conçu une expérience de suivi impliquant 143 reines du bourdon commun de l’Est (Bombus impatiens). Nos résultats ont confirmé qu’il ne s’agissait pas d’un simple hasard : les reines ont bel et bien résisté à une immersion complète pendant près d’une semaine.
Restait une question intrigante : comment cet insecte pollinisateur terrestre peut-il survivre sous l’eau ? Pour y répondre, il nous fallait adopter une nouvelle approche et étudier leur physiologie.
La reine est le cœur d’une colonie de bourdons : elle est la seule capable d’assurer la génération suivante. Si l’on entend souvent le bourdonnement des ouvrières qui visitent les fleurs en été, les reines, elles, sont rarement visibles. Elles passent en effet une grande partie de la saison à l’intérieur du nid, où elles pondent des œufs qui donneront naissance aux ouvrières puis, plus tard dans l’été, aux mâles et aux nouvelles reines.
Lorsque l’hiver arrive, la plupart des membres de la colonie meurent et seules les reines nouvellement produites survivent. Après l’accouplement, elles se dispersent et s’enfouissent dans le sol, chacune s’installant dans une petite cavité où elle entre en diapause. Quand le printemps revient enfin, les reines qui ont survécu à ce long sommeil souterrain sortent de leur abri et entreprennent la tâche cruciale de fonder une nouvelle colonie.
Pour comprendre comment ces reines peuvent survivre à une immersion, nous avons étudié leur respiration et leur métabolisme lors d'une expérience subséquente menée à l’Université d’Ottawa (Ontario, Canada). Pendant la diapause, les reines sont déjà dans un mode d’économie d’énergie extrême. L’énergie nécessaire à leur survie — leur taux métabolique — chute de plus de 99 %. Lorsqu’elles sont immergées, leurs besoins énergétiques diminuent encore davantage. Avec des besoins en oxygène aussi faibles, respirer sous l’eau devient possible.
Mais comment avons-nous pu déterminer que les reines respirent réellement sous l’eau ? Une méthode consiste à mesurer les échanges de gaz avec l’eau environnante. C’est ce que nous avons fait, et les résultats sont frappants : pendant huit jours d’immersion, les reines ont continué à consommer de l’oxygène et à libérer du dioxyde de carbone sous l’eau.
De nombreux insectes aquatiques utilisent une astuce simple pour respirer sous l’eau. Une fine couche d’air adhère à leur corps, ce qui leur permet d’utiliser leur système respiratoire habituel — le système trachéen. L’oxygène présent dans l’eau environnante se diffuse progressivement dans cette couche d’air. Les reines bourdons s'appuient probablement sur un mécanisme similaire.
Toutefois, la respiration sous l’eau ne suffit pas à couvrir entièrement leurs besoins énergétiques. Pour combler ce manque, les reines produisent aussi une partie de leur énergie grâce au métabolisme anaérobie — un processus qui ne nécessite pas d’oxygène. Cette voie produit de l’acide lactique, que nous avons effectivement détecté chez les reines pendant l’immersion.
Ces adaptations physiologiques leur permettent de survivre sous l’eau, mais elles ont un coût. Après être remontées à la surface, les reines doivent passer plusieurs jours à récupérer, en dépensant bien plus d’énergie que si elles n’avaient jamais été immergées.
Les reines bourdons passent l’hiver seules, enfouies sous terre et dépendantes des réserves d’énergie accumulées pour survivre jusqu’au printemps. Leur capacité à tolérer plusieurs jours d’immersion — et même à respirer sous l’eau — révèle une résilience inattendue face à l’un des dangers de cette vie souterraine.
C’est un point crucial, car les colonies de bourdons dépendent entièrement de la survie des reines qui hivernent. Si une reine meurt pendant l’hiver, la colonie qu’elle aurait fondée au printemps suivant ne verra jamais le jour.
Cette capacité à survivre à une immersion pourrait jouer un rôle important — et jusqu’ici largement sous-estimé — dans la résilience des populations de bourdons menacées. Même pour des insectes aussi familiers et relativement bien étudiés, il reste donc encore beaucoup à découvrir sur les façons parfois surprenantes dont ils parviennent à faire face aux défis environnementaux.
Sabrina Rondeau a reçu des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du Fonds de recherche du Québec — Nature et technologies, ainsi que de la Fondation de la famille Weston.
Charles-Antoine Darveau reçoit des financements du programme de subventions à la découverte du Conseil de recherches en sciences naturelles et en génie du Canada.
Nigel Raine reçoit des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du projet Horizon Europe ProPollSoil, du Fonds d’innovation de la Fondation canadienne pour l’innovation, du ministère de l’Agriculture, de l’Alimentation et de l’Agroentreprise de l’Ontario, de la Fédération canadienne de la faune et de la Fondation de la famille Weston.
15.04.2026 à 09:54
Axel Touchard, Chercheur, Inrae; Centre national de la recherche scientifique (CNRS)
Les venins de fourmis commencent à révéler leurs secrets. Ils sont longtemps restés dans l’ombre, car la quantité produite par chaque individu est très faible, mais de nouvelles techniques permettent de les analyser et de comprendre leur fascinante complexité.
En étudiant des espèces de fourmis de la forêt amazonienne de Guyane, nos recherches mettent en lumière une diversité et une sophistication inattendues largement façonnées par les proies qu’elles consomment, leur socialité mais aussi par la nécessité de se protéger contre les prédateurs. Ces résultats, publiés dans Molecular Ecology et dans Science, offrent un nouvel éclairage sur l’évolution des venins chez les insectes sociaux.
Nous avons découvert que toutes les fourmis d’une même colonie ne possèdent pas une composition de venin identique. Chez les fourmis légionnaires, le venin des soldats contient des enzymes digestives, probablement impliquées dans la prédigestion des proies. Chez la fourmi Neoponera goeldii, le venin contient une molécule qui imite une hormone de vertébré, provoquant une douleur immédiate pour dissuader les prédateurs.
Les venins sont des mélanges complexes de dizaines voire de centaines de molécules biologiquement actives utilisées pour immobiliser des proies et se défendre. Ils contiennent des molécules appelées « toxines », souvent des protéines, qui perturbent rapidement des fonctions vitales, telles que la transmission nerveuse ou la coagulation sanguine.
Les recherches se sont surtout concentrées sur les grands animaux venimeux, comme les serpents, les scorpions ou les araignées. Cela s’explique par la quantité de venin qu’ils produisent, mais aussi par leur dangerosité pour l’humain. Aujourd’hui, ces venins sont également étudiés pour leur potentiel thérapeutique, car certaines toxines ont déjà inspiré des médicaments commercialisés. Une molécule issue du venin d’une vipère d’Amazonie (Bothrops jararaca) a, par exemple, conduit au développement du Captopril, un médicament aujourd’hui largement prescrit dans le traitement de l’hypertension artérielle.
Historiquement, le tout premier composé de venin à avoir été caractérisé est l’acide formique, isolé à partir de la distillation des fourmis du genre Formica par John Wray en 1670. Si presque toutes les fourmis sont venimeuses, toutes ne piquent pas. Certaines projettent des substances chimiques, souvent à base d’acide formique ou d’autres composés volatils. Environ la moitié des espèces possèdent toutefois un aiguillon fonctionnel comparable à celui des guêpes et des abeilles, leur permettant d’injecter un venin riche en protéines.
Ces venins sont longtemps restés peu étudiés. La raison en est simple : chaque fourmi ne produit que quelques nanolitres de venin, ce qui rend leur collecte et leur analyse difficiles. Pourtant, avec presque 15 000 espèces décrites, les fourmis constituent un immense réservoir de diversité chimique encore largement inexploré.
Avant d’étudier les venins, les chercheurs doivent d’abord prospecter dans la forêt afin de localiser les espèces et collecter les colonies. Les fourmis occupent en effet toutes les strates de l’écosystème terrestre, du sous-sol jusqu’à la canopée, et certaines espèces peuvent s’avérer particulièrement difficiles à trouver.
Une fois au laboratoire, les fourmis sont disséquées individuellement sous loupe binoculaire. À l’aide de pinces extrêmement fines, notre équipe de recherche extrait les réservoirs à venin. Des dizaines, voire des centaines d’individus sont souvent nécessaires pour obtenir une quantité de venin suffisante pour les analyses.
La composition du venin est étudiée grâce à des techniques de pointe : la spectrométrie de masse identifie précisément les protéines présentes, tandis que le séquençage des ARN permet de lire les instructions génétiques utilisées par les fourmis pour les produire. En combinant ces méthodes, nous pouvons relier chaque molécule à son gène, révélant toute la richesse chimique de ces venins.
Parmi les espèces étudiées, nous nous sommes intéressés aux fourmis légionnaires (Eciton hamatum), dont le venin n’avait encore jamais été exploré. Ces fourmis se distinguent par leur mode de vie nomade : elles ne construisent pas de nid fixe, ce qui les rend particulièrement vulnérables aux prédateurs.
Pour y faire face, elles ont développé une organisation sociale très spécialisée. Certaines ouvrières, appelées « soldats », ont des mandibules hypertrophiées en forme de crochet qu’elles utilisent pour pincer efficacement les vertébrés susceptibles de les attaquer. Les autres ouvrières, appelées « minors », assurent l’ensemble des tâches de la colonie tout en participant également à sa défense. Ainsi, toutes les fourmis légionnaires disposent d’un venin douloureux. Ces insectes sont également de redoutables prédatrices : elles organisent des raids massifs, parfois mobilisant des milliers d’individus, pour capturer une grande variété de proies, principalement d’autres fourmis, des guêpes, mais aussi des araignées et parfois de petits vertébrés, comme des lézards.
L’étude du venin de la fourmi légionnaire a montré que celui des soldats présente une composition en protéines plus simple que celui des autres ouvrières. Tous ces venins provoquent une douleur chez les vertébrés, mais seul celui des soldats est capable de paralyser efficacement les insectes. Plus surprenant encore, ce venin contient également des enzymes digestives, les chymotrypsines. Cela suggère que le venin ne sert pas uniquement à immobiliser les proies ou à provoquer de la douleur, mais qu’il pourrait aussi contribuer à leur prédigestion.
Cette hypothèse prend tout son sens lorsque l’on considère le cycle de vie de ces fourmis. Les colonies alternent entre une phase statique d’environ vingt jours, durant laquelle elles restent en bivouac, chassent intensivement tandis que la reine pond massivement, et une phase nomade d’environ quinze jours, marquée par le déplacement quotidien de la colonie pour répondre aux besoins alimentaires élevés des larves nouvellement écloses. Or, les fourmis adultes ne peuvent consommer que des liquides, car leur système digestif filtre les particules solides. Ce sont donc les larves qui digèrent habituellement les proies. Mais lors de la phase statique, les larves sont rares, voire absentes. En temps normal, ce sont donc les larves qui assurent la digestion des proies. Nous avançons ainsi l’hypothèse que les enzymes présentes dans le venin des soldats permettraient de prédigérer les proies, facilitant ainsi l’alimentation des adultes, même en l’absence de larves.
Une autre stratégie a été mise en évidence chez la fourmi Neoponera goeldii. Son venin contient en effet une toxine qui imite la bradykinine, une hormone propre aux vertébrés et impliquée dans la douleur et l’inflammation. Or, les insectes ne possèdent ni cette hormone ni les récepteurs qui lui sont associés. Autrement dit, cette molécule ne cible pas les proies, mais leurs prédateurs, notamment les oiseaux et les mammifères. En activant les récepteurs de la douleur chez les vertébrés, elle provoque une douleur immédiate et intense, ce qui constitue une défense efficace contre les prédateurs.
Dans notre étude, nous avons également identifié des toxines imitant la bradykinine dans certains venins de guêpes, mais Neoponera goeldii est la seule espèce de fourmis connue pour posséder une telle toxine.
L’écologie de cette espèce éclaire cette adaptation. Neoponera goeldii est une fourmi arboricole qui vit dans des structures étonnantes appelées « jardins de fourmis ». Les ouvrières construisent leurs nids en assemblant des débris végétaux, des fibres et de la terre, formant ainsi un terreau suspendu dans la végétation. Elles y intègrent des graines de plantes épiphytes, c’est-à-dire des plantes qui poussent sur d’autres sans les parasiter (comme certaines broméliacées ou orchidées), qui germent directement dans le nid. Avec le temps, les racines de ces plantes grandissent et stabilisent la structure, tandis que les fourmis bénéficient d’un abri durable en hauteur. Cette association forme de véritables « jardins suspendus », parfois volumineux et très visibles dans la canopée. Cependant, cette visibilité a un coût : contrairement aux espèces discrètes qui vivent dans le sol ou le bois mort, ces colonies sont exposées en permanence aux prédateurs. Dans ce contexte, la fuite ou la dissimulation sont peu efficaces. La défense repose donc sur un venin capable de provoquer une douleur chez un prédateur.
Ces résultats montrent à quel point la composition des venins de fourmis est liée au mode de vie des espèces : ce sont des cocktails chimiques façonnés par l’évolution pour répondre à des contraintes écologiques très spécifiques.
Axel Touchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2026 à 09:53
Richard Palluel-Germain, Enseignant Chercheur en Psychologie, Université Grenoble Alpes (UGA)
Marcela Perrone-Bertolotti, Enseignante-Chercheuse au Laboratoire de Psychologie et NeuroCognition (UMR 5105, CNRS), Université Grenoble Alpes (UGA)

Au CHU de Grenoble, des patients épileptiques ont lu des phrases, comme « Je me cogne », « Je me brûle », « Je goûte » ou « Il me chatouille », pendant qu’on enregistrait leur activité cérébrale. Résultat : l’insula postérieure, une zone du cerveau qui est impliquée dans le ressenti de la douleur, la température ou le dégoût, s’active comme si le corps vivait réellement la scène. Voici un décryptage de cette étude récente, parue fin 2025 dans iScience.
Vous êtes tranquillement installé avec un bon livre. Survient alors une scène si tendue que vos muscles se crispent et votre cœur accélère. Ce basculement d’une suite de caractères d’imprimerie vers des sensations physiques est très fréquent et commence tout juste à être mieux compris par les neurosciences cognitives. Comprendre un mot, ce n’est pas seulement le voir – c’est activer tout un réseau de connaissances et d’expériences. Par exemple, dès l’instant où vous lisez le mot
… vous percevez sa couleur, la forme des caractères, ses lettres. Puis, presque instantanément, son sens émerge : un fruit rond, sucré ou acidulé, peut-être le souvenir de la tarte Tatin de votre mamie, voire même l’image de Newton sous son arbre ?
Comprendre un mot, au delà de le voir, c’est activer tout un réseau de connaissances et d’expériences. Comment ces sensations et ces images arrivent-elles dans nos cerveaux ? Le traitement cognitif lors de la lecture est-il un calcul purement abstrait, ou le sens des mots est-il ancré dans des expériences sensorielles ou motrices qui remontent à la surface ?
Pour répondre à ces questions, nous vous proposons de comprendre d’abord les enjeux théoriques majeurs en psychologie concernant l’accès à la signification des mots ; puis de plonger avec nous dans nos expériences.
Les individus interagissent avec leur environnement par l’intermédiaire de multiples modalités d’entrée et de sortie. Une modalité est un canal par lequel nous faisons l’expérience du monde ou agissons sur celui-ci. Il peut s’agir d’une modalité sensorielle, comme la vision qui nous permet de percevoir les formes et les couleurs, la somesthésie, qui va nous aider à ressentir le toucher et la douleur, ou encore la modalité verbale, qui nous permet de traduire nos pensées en mots.
À chaque fois que vous interagissez avec une pomme, votre cerveau entre en ébullition. Si vous la regardez, vos zones visuelles s’activent ; si vous la croquez, ce sont vos zones gustatives qui prennent le relais… Ces activités sont dites « spécifiques » : elles sont les échos directs de vos sens. Puis grâce à des chefs d’orchestre comme l’hippocampe, ces sensations éphémères ne s’évaporent pas. Elles se transforment en traces mnésiques durables. Paradoxalement, bien que ces souvenirs soient bâtis à partir de vos sens, ils ne restent pas cantonnés dans les zones de la vision ou du toucher. Ils migrent vers des « zones de convergence » neutres, de véritables carrefours cérébraux où l’information est stockée à long terme. Jusqu’ici, tout le monde est plus ou moins d’accord.
C’est sur la suite que les chercheurs se divisent : comment réutilisons-nous ces souvenirs pour penser ou pour comprendre ce qu’on lit ?
Selon les théories dites « désincarnées », le cerveau fonctionne comme un ordinateur ultrapuissant. Une fois qu’une expérience (manger une pomme) est stockée, elle est transformée en un symbole abstrait, un code pur. Pour penser au concept de « pomme », votre cerveau n’aurait plus besoin de se souvenir de la sensation de la pomme ; il manipule simplement des données logiques, déconnectées de vos sens.
La théorie de la cognition « incarnée », à l’inverse, soutient que la pensée reste profondément ancrée dans le corps. Selon elle, on ne peut pas penser à une « pomme » sans que le cerveau ne réactive secrètement les zones sensorielles du toucher, de la vue, du goût, etc. Penser, ce serait en quelque sorte re-vivre l’expérience physique à basse intensité. Le sens d’un mot ne serait pas un code abstrait mais une simulation sensorielle.
Le débat reste ouvert : notre pensée est-elle une simulation sensorielle ou un pur calcul abstrait ? La réponse se cache peut-être dans la manière dont ces traces mnésiques s’animent lorsque nous lisons.
Un élément de réponse est peut-être à trouver dans des travaux en imagerie par résonance magnétique fonctionnelle (IRMf).
En effet, ces recherches montrent que lire ou entendre un mot d’action comme « manger » active les régions motrices qui sont observées lors de l’action effective de manger.
De plus, il a été montré que si l’action concerne la main ou le pied, ce sont les zones motrices correspondantes qui s’activent – il y aurait une « somatotopie », c’est-à-dire une organisation cérébrale reflétant la topographie de notre corps. En clair : l’activité provoquée par des phrases évoquant le pied, la bouche ou la main chevauche précisément les zones motrices vouées à ces mêmes parties du corps.
Ces résultats semblent donc contredire l’hypothèse dite « désincarnée », selon laquelle les zones motrices somatotopiques ne devraient jouer aucun rôle dans la compréhension des phrases ou la représentation du sens des verbes.
De la même manière, les mots liés aux couleurs mobilisent les aires visuelles spécialisées, les mots liés aux odeurs activent les régions olfactives et les phrases décrivant des mouvements sollicitent les zones impliquées dans la perception du mouvement.
À lire aussi : Les « actions cachées » : quand des régions du cerveau liées à la motricité s’activent… alors qu’on ne bouge pas
Ces études présentent cependant des limites. L’IRM fonctionnelle ne permet pas notamment de mesurer précisément le moment où ces activations apparaissent. Or, la question du temps est centrale dans le débat entre cognition incarnée et cognition symbolique. En effet, selon l’hypothèse incarnée, l’activation des régions sensorimotrices surviendrait au moment même où le sens émerge.
Pour pallier cette limite de l’IRM fonctionnelle, notre équipe s’est intéressée à la dynamique de l’activité cérébrale dans le cortex insulaire (résultats publiés fin 2025).
Nous nous sommes penchés spécifiquement sur cette zone, car le cortex insulaire, ou insula, constitue une véritable « tour de contrôle » de nos sensations. Il est subdivisé en plusieurs sous-régions, organisées en deux grandes zones qui coopèrent pour transformer un simple message nerveux en une expérience subjective. De manière schématique, on distingue l’insula antérieure et l’insula postérieure. Chacune de ces deux parties traite des informations distinctes en provenance du corps et de l’environnement.
Ainsi, l’insula postérieure est impliquée dans le traitement des signaux issus des organes internes (informations intéroceptives, telles que les battements du cœur ou les sensations viscérales) ainsi que des signaux liés à une menace pour l’intégrité des tissus (informations nociceptives, comme celles générées lors d’une coupure ou d’une brûlure). L’insula antérieure, quant à elle, présente une dimension plus intégrative et cognitive, contribuant à l’élaboration du sens des sensations, notamment à travers leur dimension émotionnelle et cognitive.
À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température
Pour évaluer la dynamique de l’activité cérébrale de l’insula, nous avons utilisé une méthode offrant l’une des meilleures précisions temporelles et spatiales disponibles chez l’être humain : l’électroencéphalographie intracrânienne (iEEG). L’iEEG est une méthode de neuro-imagerie dite invasive, utilisée uniquement pour des raisons médicales, impliquant l’exploration de l’activité électrique cérébrale à l’aide des électrodes implantées à l’intérieur du cerveau. Cette méthode permet ainsi une mesure de l’activité neuronale très précise d’un point de vue de la localisation et du décours temporel. Elle est notamment employée chez des patients souffrant d’une épilepsie pharmacorésistante (dont les crises ne peuvent être contrôlées par un médicament) afin de localiser la zone du cerveau responsable des crises.
C’est ainsi que nous avons collaboré avec 16 patients implantés avec des iEEG au CHU de Grenoble-Alpes pour raisons médicales. Nous leur avons demandé de lire de courtes phrases appartenant à différentes catégories sémantiques : abstraites (par exemple, « Je réfléchis »), liées à l’action (par exemple, « Je cours ») et liées à des sensations somesthésiques (par exemple, « Je me brûle »).
Nos résultats montrent que l’insula postérieure n’est pas seulement impliquée dans la perception de sensations ou de douleurs qui sont effectivement induites physiquement, mais peut également être sélectivement mobilisée lors du traitement de phrases décrivant des sensations somesthésiques, comme la douleur (par exemple, « Je me brûle »). Cette réponse neuronale survient très tôt dans le temps, environ 150 millisecondes après l’apparition du mot « brûle » sur l’écran. De manière intéressante, l’insula antérieure ne montre pas cette dynamique temporelle.
Cette temporalité extrêmement courte suggère que l’insula postérieure pourrait contribuer au traitement lexico-sémantique des phrases liées aux sensations corporelles. En d’autres termes, lors du traitement de phrases liées aux sensations, le cerveau simulerait des expériences sensorielles et douloureuses, réactivant partiellement des régions habituellement impliquées dans le traitement des sensations réelles.
L’implication de l’insula postérieure en réponse à de telles phrases apporte des éléments de réponse aux débats sur la cognition incarnée ou désincarnée, selon laquelle l’accès au sens de mots liés à des sensations implique une re-expérience partielle de l’état sensoriel correspondant.
Pour résumer, il existe donc un ensemble d’études, utilisant diverses méthodologies, remettant en question l’hypothèse dite « désincarnée » qui dominait les théories du langage jusqu’à la fin du XXᵉ siècle. Les zones cérébrales spécifiques à une modalité – incluant les cortex visuel, auditif et moteur –, dont on savait depuis longtemps qu’elles jouent un rôle crucial dans la perception et la production de la forme des mots, semblent désormais également impliquées dans l’instanciation du sens des mots.
Bien sûr de nombreuses questions restent en suspens. Une question cruciale est sans doute la suivante : comment les simulations spécifiques à une modalité sensori-motrice peuvent-elles représenter des concepts abstraits comme le temps, la justice ou le bonheur ? Les objets concrets (comme une pomme) ou les actions concrètes (comme lancer) peuvent être représentés par des simulations sensorielles ou motrices. Mais comment représenter des idées que nous ne pouvons ni percevoir avec nos sens ni manipuler avec nos muscles ?
Retrouvez notre vidéo basée sur cet article
Le projet LAMI (ANR-22-CE28-0026) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Richard Palluel-Germain a reçu des financements l'Agence Nationale de la Recherche, grant/ award number: LAMI-ANR-22-CE28-0026.
Marcela Perrone-Bertolotti a reçu des financements de l'Agence Nationale de la Recherche, grant/ award number: LAMI-ANR-22-CE28-0026..
15.04.2026 à 09:53
Christophe Robaglia, Professeur de biologie, Aix-Marseille Université (AMU)
Gaël Brasseur, Docteur en biologie, Centre national de la recherche scientifique (CNRS)
Loïc Quevarec, Chercheur en sciences de l'environnement, Centre national de la recherche scientifique (CNRS)
La photosynthèse fixe le carbone atmosphérique sous forme de molécules organiques essentielles à la vie et produit l’oxygène présent dans l’atmosphère et dans les mers. Elle a été acquise par le monde vivant grâce à des intégrations cellulaires successives en « poupées russes », les photosymbioses. En mimant les étapes précoces des photosymbioses, nous suggérons, dans notre article publié dans Current Biology, que l’oxygène serait un facteur déterminant pour les amorcer en milieu hypoxique (c’est-à-dire à faible teneur en oxygène) – la fourniture de carbone pouvant être un évènement secondaire.
En convertissant le rayonnement solaire en énergie utilisable par le monde vivant, la réaction de photosynthèse a profondément modifié l’ensemble de la planète Terre. La photosynthèse permet la conversion du carbone provenant du dioxyde de carbone (CO₂) atmosphérique en matière organique complexe, principalement sous forme de sucres qui alimentent une grande partie des formes de vie, dont les sociétés humaines. Une autre conséquence de la photosynthèse, qui a eu des conséquences majeures à l’échelle planétaire, est la production d’oxygène. Celle-ci est causée par la cassure de molécules d’eau qui initie le flux énergétique d’électrons qui permet la fixation du carbone en sucres.
La photosynthèse oxygénique est apparue chez un groupe particulier de bactéries, les cyanobactéries, dont des traces fossiles remontent à 3,8 milliards d’années et dont des descendants existent encore aujourd’hui. L’oxygène produit a permis le métabolisme aérobie, plus énergétique, qui a conduit à l’émergence d’organismes unicellulaires prédateurs. Certains ont intégré des cyanobactéries, bénéficiant à leur tour de la photosynthèse, c’est ce que l’on appelle la photosymbiose. Les lointains descendants de ces organismes sont devenus les algues et les plantes actuelles.
L’histoire ne s’arrête pas là puisque, à plusieurs reprises, d’autres organismes prédateurs ont intégré ceux déjà issus de la première photosymbiose, créant des emboîtements en « poupées russes » secondaires et tertiaires. Par exemple, les coraux, apparus il y a environ 500 millions d’années, sont des animaux hébergeant des organismes photosynthétiques unicellulaires issus d’une photosymbiose secondaire, les dinoflagellés.
Nous avons développé un système expérimental permettant l’évolution en laboratoire d’étapes précoces de la transition entre une relation prédateur-proies vers une relation hôte-photosymbionte. Il comprend un organisme unicellulaire prédateur du groupe des ciliés, Tetrahymena thermophila et des proies photosynthétiques. Les ciliés sont des unicellulaires, très abondants dans les écosystèmes aquatiques, dont font partie les paramécies. la cyanobactérie Synechoccoccus elongatus permet de mimer les événements de photosymbiose primaire et la microalgue verte eucaryote Chlorella variabilis permet de mimer les événements de photosymbiose secondaire.
Grâce à la fluorescence naturelle des organismes photosynthétiques, nous avons combiné la microscopie et la cytométrie de flux, qui permet de quantifier et de trier des cellules suivant leur taille ou leur fluorescence pour observer le trajet des proies à l’intérieur des cellules prédatrices.
Nous avons ainsi caractérisé cette dynamique de la phagocytose jusqu’à l’élimination sous forme de boulettes fécales. Ceci a montré la gloutonnerie du prédateur unicellulaire qui peut ingérer jusqu’à 160 cyanobactéries ou 40 microalgues en moins d’une heure et les éliminer progressivement pendant plusieurs heures. Curieusement, de nombreuses proies sont rejetées sans être digérées totalement, voire pas du tout, suggérant qu’une transition simple entre l’état de proie et celui de symbionte intracellulaire ne nécessiterait que l’interruption de la rejection.
Afin d’évaluer les conditions environnementales permettant l’initiation d’une symbiose, nous avons placé le prédateur et ses proies dans des milieux pauvres en carbone assimilable ou en absence oxygène, et mesuré la survie du prédateur. Nous avons ainsi montré que les proies photosynthétiques favorisent considérablement la survie en milieu hypoxique alors qu’elles procurent un avantage faible, voire inexistant, dans un milieu pauvre en carbone. L’hypoxie induit aussi une condition physiologique atténuant sa propre cause, puisque le transit intracellulaire des proies est considérablement ralenti, favorisant ainsi l’utilisation de l’oxygène produit par la photosynthèse des proies.
Ce résultat n’était pas vraiment attendu, car il est généralement admis que le moteur principal des photosymbioses est la fourniture de carbone sous forme de sucres. Nous montrons donc que la production d’oxygène en conditions hypoxiques peut être une cause primaire de l’amorce d’une symbiose photosynthétique.
Les milieux hypoxiques ont été prépondérants pendant une grande partie de l’histoire de notre planète et sont toujours fréquents, en particulier dans les environnements aquatiques et marins. Leur incidence augmente même sous l’influence de perturbations anthropiques et de l’augmentation des températures. L’exploration de ces milieux pourrait donc révéler de nouvelles associations photosymbiotiques. Nous anticipons maintenant que le système expérimental que nous avons développé nous permettra d’étudier les mécanismes moléculaires et cellulaires stabilisant une proie en symbionte, qui restent largement inconnus. Au-delà de la compréhension d’un mécanisme fondamental d’association entre organismes ces travaux pourraient avoir des applications de biologie synthétique, pour construire, par exemple, de nouvelles associations productrices de biocarburants.
Christophe Robaglia a reçu des financements de l'ANR, Projet-ANR-21-CE20-0035 PHOCEE
Gaël Brasseur et Loïc Quevarec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
15.04.2026 à 09:53
Zacharie Duputel, Sismologue, Chargé de recherche au CNRS, Observatoire Volcanologique du Piton de la Fournaise, Institut de physique du globe de Paris (IPGP)
Aline Peltier, Physicienne du globe (assimilée professeur des universités) spécialisée en géodésie et volcanologie, Institut de physique du globe de Paris (IPGP)
François Beauducel, Physicien du globe (assimilé professeur des universités) aux observatoires volcanologiques et sismologiques, Institut de physique du globe de Paris (IPGP)
Oryaëlle Chevrel, Chargée de Recherche en Volcanologie au Laboratoire Magmas et Volcans, Institut de recherche pour le développement (IRD); Université Clermont Auvergne (UCA); Centre national de la recherche scientifique (CNRS)

Le piton de la Fournaise, situé sur l’île de La Réunion, est souvent présenté comme l’un des volcans les mieux surveillés au monde. Depuis 1979, l’Observatoire volcanologique du Piton de la Fournaise suit l’activité du volcan 24 heures sur 24 grâce à un réseau de plus de 100 instruments qui enregistrent les moindres soubresauts du volcan : séismes, déformations du sol et émissions de gaz.
Cette surveillance étroite, même si elle ne permet pas une prédiction au sens strict – à savoir prédire la date et l’heure exactes du début d’une éruption –, permet de reconnaître les phases de réactivation nous renseignant sur une augmentation de la probabilité d’une éruption.
Le piton de la Fournaise a connu 86 éruptions depuis la création, en 1979, de l’Observatoire volcanologique qui suit son activité. Toutes ont pu être anticipées grâce à différents signaux avant-coureurs, comme l’augmentation de sismicité, l’inflation du volcan ou l’augmentation des flux de CO₂ dans le sol, permettant à l’observatoire de donner l’alerte aux autorités.
L’éruption du 13 février 2026 en est un bon exemple : pendant plusieurs semaines, le volcan a montré des signaux de réactivation, d’abord discrets et profonds, puis de plus en plus superficiels et clairs. Leur analyse montre qu’une éruption peut souvent être anticipée, même si son déclenchement final peut être extrêmement rapide. Cette éruption a connu trois phases d’activité : du 13 février au 25 mars, du 28 mars au 2 avril, puis du 8 au 12 avril 2026. Au 13 avril, elle est à l’arrêt, mais une reprise reste possible.
À la suite de l’éruption de juillet à août 2023, le piton de la Fournaise était entré dans une phase de repos sans aucun signe d’activité ni en surface ni en profondeur, après plusieurs années particulièrement actives marquées par une à cinq éruptions par an depuis 2014.
Les instruments de l’observatoire ont enregistré les premiers signes de réveil à la mi-septembre 2025, avec de la sismicité profonde à environ 20 kilomètres de profondeur sous la région des Plaines (à 15 kilomètres au nord-ouest du sommet du volcan) qui a duré et augmenté jusqu’en novembre. Ces séismes sont le signe d’un mouvement de magma ou d’une montée en pression dans la partie profonde du système d’alimentation du volcan.
À partir du 22 novembre 2025, l’activité sismique est devenue plus superficielle et s’est rapprochée du sommet : d’abord entre 4 et 5 kilomètres de profondeur, puis entre 1 et 2,5 kilomètres, dans la zone du réservoir magmatique superficiel.
Fin novembre, l’inflation de l’édifice volcanique (c’est-à-dire le « gonflement » du volcan) confirmait la mise en pression du réservoir magmatique superficiel situé sous le sommet.
À ce stade, les signaux sismiques et géodésiques convergeaient et nous indiquaient clairement qu’une remontée de magma des profondeurs vers le système d’alimentation superficiel du volcan était en train de se produire. Nous avons donc alerté les autorités de cette situation, et le préfet de La Réunion a déclenché, le 28 novembre 2025, la phase de vigilance du plan Orsec « Piton de la Fournaise », le dispositif de gestion de crise en cas de menace éruptive. Ce niveau d’alerte signifie qu’une éruption est possible à moyen terme, c’est-à-dire dans les jours ou les semaines qui suivent. Les randonneurs sont ainsi informés qu’une éruption peut se produire, mais ils peuvent toujours accéder au sommet du piton de la Fournaise à condition de rester sur le sentier balisé.
À lire aussi : Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles
Le réveil du volcan s’est manifesté par trois intrusions magmatiques (injections de magma qui n’atteignent pas la surface, ce sont en quelque sorte des éruptions avortées) – les 5 décembre 2025, 1er janvier 2026 et 6 et 7 février 2026 – ainsi que par une première éruption brève, sur le flanc nord du volcan, du 18 au 20 janvier 2026.
Chacun de ces épisodes a été précédé par une crise sismique, c’est-à-dire un essaim de séismes très rapprochés dans le temps et l’espace, pouvant atteindre plusieurs centaines d’événements par heure, ainsi que par des mouvements rapides du sol, liés à la remontée du magma depuis le réservoir magmatique superficiel situé à environ deux kilomètres sous le sommet.
Ces crises sismiques déclenchent des alarmes automatiques permettant d’avertir la personne d’astreinte de l’observatoire, et ainsi d’alerter rapidement les autorités, afin que le préfet puisse activer les niveaux correspondants du plan OrsecC : d’abord l’alerte 1, « éruption imminente », puis, lorsque l’éruption débute, l’alerte 2-1, « éruption en cours dans l’Enclos sans menace particulière », alerte 2-2, « éruption en cours dans l’Enclos avec menace pour les biens et l’environnement » ou alerte 2-3 « éruption en cours Hors Enclos avec menace pour les personnes, les biens et l’environnement ». L’Enclos étant une structure caldérique inhabitée où se sont produits 95 % des éruptions récentes.
Entre chacune de ces intrusions et éruptions, l’activité sismique et l’inflation de l’édifice ont perduré, traduisant la poursuite de la pressurisation du réservoir superficiel. Ces observations ont conduit, sous recommandation de l’observatoire, au maintien de la phase de Vigilance du plan Orsec de la part du préfet de La Réunion entre chacune de ces phases.
Même si les éruptions du piton de la Fournaise sont toutes précédées par des crises sismiques, indiquant le début de la remontée finale du magma depuis le réservoir superficiel vers la surface, une éruption peut se mettre en place très rapidement.
Ainsi, contrairement à l’éruption de janvier 2026 dont la crise sismique avait duré 3,18 heures (soit 191 minutes), l’éruption du 13 février a débuté environ trente-cinq minutes seulement après le début de la crise sismique. Même si nous avons donné l’alerte rapidement aux autorités d’une probabilité forte de l’imminence d’une éruption, l’évacuation complète du volcan n’a pas pu être menée dans un délai si court. Certains randonneurs ont ainsi assisté au début de l’éruption au sommet avant d’être rapidement pris en charge par le peloton de gendarmerie de haute montagne. Les fissures étaient alors situées à 300 mètres du sentier autorisé.
Le temps écoulé entre le début de la crise sismique et celui de l’éruption dépend de la localisation des fissures éruptives. Cela s’explique par le fait que les injections magmatiques au Piton de la Fournaise se déroulent en deux étapes : d’abord une migration verticale du magma depuis le toit du réservoir superficiel, puis, pour les éruptions latérales – excentrée par rapport au sommet – une migration latérale vers l’un des flancs du volcan. Plus le site éruptif est éloigné du sommet, plus cette propagation latérale prend du temps. À l’inverse, lorsque les fissures s’ouvrent au sommet, directement au droit du réservoir magmatique comme le 13 février 2026, la distance à parcourir par le magma est courte et la durée de propagation avant l’arrivée du magma en surface est en général inférieure à une heure, car le magma n’a essentiellement qu’un trajet vertical à parcourir dans un milieu déjà très fracturé.
Aujourd’hui, nous savons estimer la position approximative de l’injection magmatique au sein de l’édifice volcanique grâce à la localisation des séismes qu’elle provoque et aux sources de déformation. C’est ainsi qu’au cours de la crise sismique nous informons les autorités sur la zone où le magma se propage. En revanche, nous ne savons pas pour le moment prédire avec exactitude l’emplacement du futur site éruptif, ni l’heure précise du début de l’éruption, même si des avancées récentes permettent de prédire si une injection magmatique atteindra ou non la surface.
À lire aussi : Une IA pour détecter les signes avant-coureurs des séismes lents
Ainsi, de nouveaux outils d’analyse, notamment fondés sur l’apprentissage automatique, permettent aujourd’hui de mieux détecter la sismicité et d’analyser en temps réel des mesures fines de déformation. Et le Piton de la Fournaise, véritable volcan-laboratoire, permet de tester ces nouvelles méthodes.
Parmi ces avancées, nous avons développé et implémenté à l’observatoire la méthode Jerk. Cette méthode est basée sur la détection de très faibles mouvements du sol enregistrés à près de 8 km du volcan, associés à l’ouverture brutale des fractures lors d’une injection magmatique. Elle permet d’émettre des alertes automatiques, fondées sur un unique paramètre associé à une valeur seuil, indiquant la probabilité forte qu’une injection de magma aboutisse à une éruption.
Ainsi, cette méthode a permis de lancer une alarme en temps réel avant 92 % des 24 éruptions étudiées entre 2014 et 2023, parfois plusieurs heures avant l’arrivée du magma en surface. Le système Jerk a très bien fonctionné lors des éruptions de janvier et février 2026.
Lors d’une éruption, nous cherchons également à mieux anticiper les trajectoires des coulées de lave, en simulant les zones probables de recouvrement par les laves. Ces cartes, en complément des relevés de terrain réalisés grâce à des survols par des drones opérés par l’observatoire volcanologique, le service départemental d’incendie et de secours et la gendarmerie, ont été mises à jour et partagées avec les autorités tout au long de la gestion de crise, notamment pour définir les zones potentiellement impactées par les coulées de lave.
Ainsi, durant les 48 heures précédant la coupure de la route nationale RN2 (route qui relie le sud au nord de l’île sur la côte est) par les coulées de lave, nous avons suivi au plus près, sur le terrain et grâce aux caméras de l’observatoire, la position des résurgences de lave afin d’affiner ces simulations. Ces simulations ont également été précieuses pour définir à l’avance le point d’arrivée de la lave à l’océan, dont l’interaction avec l’eau de mer a généré un panache de gaz acide.
Retrouvez notre vidéo basée sur cet article
Le projet LAVA (ANR-16-CE39-0009) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Oryaëlle CHEVREL a reçu des financements de l'Institut de Recherche pour le Développement et Agence nationale de la recherche (projet LAVA ANR-16 CE39-0009).
Aline Peltier, François Beauducel et Zacharie Duputel ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
14.04.2026 à 16:36
Isabelle Dupin, Professeure des universités, Université de Bordeaux

Dans les années 2010, les biologistes ont appris à exploiter une propriété fascinante des cellules souches : leur capacité à s’auto-organiser. Placées dans les bonnes conditions, elles peuvent former spontanément des structures tridimensionnelles miniatures, que l’on appelle « organoïdes », qui reproduisent certains aspects structurels et fonctionnels d’un organe. Cette approche impacte profondément la recherche biomédicale. Mais, dans le cas du poumon, elle montre aujourd’hui ses limites et conduit à intégrer d’autres approches : pour progresser, il faut guider, voire contraindre, cette auto-organisation.
Modéliser le poumon humain reste un défi majeur. Sa structure en arbre, avec une vingtaine de divisions successives jusqu’aux alvéoles, ses propriétés mécaniques spécifiques liées aux mouvements respiratoires et, surtout, son exposition constante à l’air en font un organe à part. Pendant longtemps, les modèles animaux, notamment les rongeurs, ont servi de référence en recherche préclinique.
Mais ils présentent des différences importantes avec le poumon humain, notamment au niveau des voies respiratoires les plus petites, qui correspondent aux dix dernières divisions de l’arbre bronchique. Or ces zones sont justement atteintes très tôt dans certaines maladies comme la bronchopneumopathie chronique obstructive (BPCO). Cette maladie, principalement causée par le tabagisme, se caractérise par une obstruction progressive et permanente des bronches. Elle touche plus de trois millions de Français, et à ce jour, il n’existe pas de traitement pharmacologique pour guérir ces patients.
Dans le domaine de la santé respiratoire, les organoïdes ont apporté une alternative prometteuse. Ces modèles ont déjà fait leurs preuves. Dans la mucoviscidose, par exemple, des organoïdes dérivés de patients permettent de reproduire les défauts de sécrétion de fluides et de prédire l’efficacité de nouveaux traitements, une avancée majeure vers une médecine personnalisée.
Mais la promesse n’est pas totalement tenue : l’auto-organisation a ses limites. Les organoïdes bronchiques classiques ont une forme de sphères creuses, remplies d’eau et de mucus. Une géométrie bien éloignée de celle des bronches humaines, qui sont des tubes ramifiés. Plus problématique encore : leur architecture fermée rend difficile l’accès à leur intérieur. Stimuler ces modèles par des virus respiratoires, ou bien tester des médicaments inhalés, au cœur des traitements respiratoires, devient alors un défi technique.
Plutôt que de s’en remettre uniquement aux capacités d’auto-organisation des cellules souches, nous avons décidé de guider leur organisation grâce à la bio-ingénierie. Notre pari : imposer une structure tubulaire aux cellules souches pour contraindre leur organisation spatiale, tout en préservant leur capacité à se différencier.
Concrètement, nous avons fabriqué, avec l’aide de nos collègues en biophysique, un moule tubulaire en hydrogel de très petite dimension (environ 0,5 millimètre de diamètre), dans lequel nous avons introduit les cellules souches, purifiées à partir de tissus pulmonaires humains.
Les cellules ne se contentent pas de survivre dans cette structure : elles recréent progressivement un épithélium respiratoire fonctionnel, en présence d’un milieu de culture riche en facteurs de croissance. En quelques semaines apparaissent les cellules fonctionnelles de la bronche, les cellules ciliées et des cellules sécrétrices de mucus, le long de la paroi interne du tube. Les cils des cellules ciliées battent bien à la fréquence attendue, soit 15 battements par seconde ! Ces battements sont essentiels pour mettre en mouvement le mucus et assurer la défense de nos bronches face aux agressions de l’environnement.
Surtout, cette architecture ouverte change tout. Pour la première fois, il devient possible de perfuser ces structures et d’y faire circuler de l’air. Il est également possible de les infecter avec des virus respiratoires et d’observer la dynamique de l’infection.
L’intérêt de notre modèle, que nous avons appelé « bronchioïde », se révèle également lorsqu’on utilise des cellules issues de patients. En recréant des bronchioïdes à partir de cellules de patients atteints de BPCO, nous observons des altérations caractéristiques de la maladie : des battements ciliaires perturbés et une apparition excessive et précoce des cellules sécrétrices de mucus. Autrement dit, le modèle ne reproduit pas seulement des bronches saines, il peut aussi simuler des anomalies pathologiques.
Cette capacité ouvre des perspectives concrètes : mieux comprendre les mécanismes précoces des maladies respiratoires, telles que l’asthme ou la BPCO, tester des traitements dans des conditions plus réalistes et, à terme, adapter les thérapies à chaque patient.
Faut-il parler de « mini-bronches » en laboratoire ? On en est encore loin. Ces modèles restent incomplets. Ils ne contiennent pas, à ce stade, toute la diversité cellulaire du poumon, notamment les cellules de soutien, essentielles au fonctionnement de l’organe. Ils ne reproduisent pas non plus la complexité de l’arbre bronchique, avec son intégration dans les systèmes vasculaire, immunitaire et nerveux. Enfin, les aspects mécaniques dynamiques de la respiration sont généralement absents des modèles organoïdes.
Mais la combinaison de l’auto-organisation et des contraintes physiques imposées par la bio-ingénierie est prometteuse. Les possibilités offertes par cette discipline sont quasiment infinies.
Une équipe grenobloise a récemment réussi à intégrer des organoïdes dans des dispositifs microfluidiques, qui sont des supports contenant des canaux très fins. Ceci a permis de vasculariser les organoïdes, une avancée majeure pour apporter suffisamment d’oxygène et de nutriments à ces structures tridimensionnelles. Une équipe suisse a, quant à elle, reproduit un réseau d’alvéoles grâce à une membrane biologique souple et étirable, qui imite les mouvements de respiration.
Avec l’espoir un peu fou de pouvoir développer grâce à ces outils une médecine plus prédictive et mieux adaptée aux patients !
Isabelle Dupin a reçu des financements de l'Agence Nationale de la Recherche (ANR), de la Région Nouvelle Aquitaine et de l'European Research Concil (ERC, project KINTSUGI, 101170266). Les points de vue et opinions exprimés sont toutefois uniquement ceux de l’autrice et ne reflètent pas nécessairement ceux de l’Union européenne ni de l'European Research Concil. Ni l’Union européenne ni l’autorité de financement ne peuvent en être tenues responsables.
13.04.2026 à 16:45
Sabrine Mallek, Professeure Associée en Transformation Digitale, ICN Business School
La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes. C’est un des secrets qui permet de développer des applications si sophistiquées et qui restent accessibles aux non-spécialistes.
Les systèmes d’apprentissage automatique ne se limitent plus à des outils conçus pour une seule tâche, comme la traduction ou la recommandation de produits. Une transformation majeure tient à l’émergence des foundation models, ou modèles de fondation : de très grands modèles entraînés sur des volumes massifs de données pour acquérir des connaissances générales, réutilisables dans de nombreux contextes.
Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent, pour l’instant, à nuancer les promesses spectaculaires. Comment fonctionnent-ils ? Comment sont-ils régulés et quels sont les obstacles à une adoption qui porte ses fruits ?
Les modèles de fondation reposent sur un principe simple : apprendre des structures générales à partir de très grandes quantités de données hétérogènes – textes, images, codes, sons, vidéos, bases de données ouvertes et contenus sous licence, ou une combinaison de ces types de données.
L’objectif de l’entraînement initial est de permettre au modèle d’identifier des régularités statistiques dans les données et de construire des représentations générales du langage, des images ou d’autres formes d’information. Sur le plan technique, ces systèmes utilisent le plus souvent des architectures de réseaux de neurones profonds. Durant la phase d’entraînement, le modèle apprend à prédire une partie manquante de l’information, par exemple le mot suivant dans une phrase ou une portion d’image, en ajustant progressivement des milliards de paramètres. Ce processus d’apprentissage, appelé pré-entraînement, nécessite des ressources de calcul considérables et constitue la base du caractère « généraliste » de ces modèles.
Une fois pré-entraîné, le modèle de fondation peut être adapté à des usages spécifiques, allant de l’analyse de sentiment ou la réponse à des questions jusqu’à des tâches plus techniques, comme l’assistance au diagnostic médical.
Cette adaptation peut se faire grâce à un ajustement supplémentaire appelé fine-tuning, par exemple en nourrissant un modèle généraliste d’imagerie médicale avec des radiographies spécifiques à une maladie permettant à l’outil d’apprendre à prédire l’évolution d’une pathologie précise.
Elle peut aussi passer par l’apprentissage avec retour humain (reinforcement learning with human feedback), qui consiste à faire évaluer plusieurs réponses par des humains pour inciter le modèle à privilégier des formulations claires et sécurisées plutôt que de simples suites de mots statistiques.
Enfin, cette adaptation peut s’opérer simplement par prompting, en guidant le modèle par des instructions textuelles du type : « Résume ce document en trois points. »
C’est cette capacité à être réutilisés dans de nombreux contextes qui explique pourquoi ces systèmes sont qualifiés de « modèles de fondation » : ils servent de base technologique à une large gamme d’applications. Par exemple, GPT-4 ou GPT-5 servent déjà de socle opérationnel à de nombreuses applications, à l’image de ChatGPT, tout en conservant un potentiel d’extension encore largement ouvert.
Concrètement, les modèles de fondation ne sont pas une application en soi, mais une infrastructure de base. Ils marquent une évolution récente de l’intelligence artificielle (IA), rendue possible par la combinaison de trois facteurs : l’explosion des données, les progrès des capacités de calcul et l’apparition de nouvelles architectures d’apprentissage.
Un tournant majeur intervient en 2017 avec l’architecture des transformers. Cette innovation permet de mieux capter les relations dans les données (notamment le langage), et devient la base de modèles comme BERT ou GPT. Lorsqu’un modèle de fondation (une expression née officiellement en 2021) est spécialisé dans le traitement du langage, on parle alors de grand modèle de langage (LLM). Et c’est sur cette base que se développent aujourd’hui les usages les plus visibles : ceux de l’IA générative, capable de produire du texte, des images, des vidéos, du son ou du code – qui est devenue grand public et commercialement viable avec le lancement de ChatGPT, fin 2022, marquant le passage de l’infrastructure à l’usage de masse.
Le rapport entre ces modèles de fondation et l’IA générative peut être comparé à celui d’un « moteur » par rapport à sa « fonction ». Le modèle de fondation est ce moteur puissant, pré-entraîné sur des données colossales et conçu pour être adaptable à une multitude de tâches. L’IA générative, quant à elle, est la fonction d’application finale : c’est la capacité de ce moteur à produire un contenu inédit.
Concrètement, si l’on prend un modèle de fondation comme GPT-4 (le moteur), on peut l’utiliser pour analyser des milliers d’avis clients (une tâche purement analytique). Mais lorsqu’on lui demande de rédiger un e-mail, on active alors sa fonction d’IA générative. De la même manière, dans le domaine visuel, un modèle de fondation entraîné sur des millions d’images peut servir de moteur aussi bien pour détecter une anomalie sur une radiographie médicale (classification) que pour dessiner un paysage imaginaire à partir d’une simple phrase (IA générative).
Cette polyvalence signifie que les modèles de fondation tendent à devenir une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet : au lieu de reconstruire un modèle d’IA spécifique propre à chaque projet, les acteurs économiques se branchent directement sur ces briques généralistes existantes.
Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent à nuancer les promesses de gains de productivité spectaculaires. Beaucoup d’entreprises peinent encore à dégager un retour sur investissement évident pour l’automatisation administrative, constatant souvent que les modèles de fondation ne réduisent pas la charge de travail, mais l’intensifie : les employés doivent désormais consacrer davantage d’énergie à vérifier et à corriger les résultats.
Par ailleurs, l’assistance aux experts (aide au code, à la décision) se heurte à une « frontière technologique en dents de scie » : face à une tâche donnée, le modèle peut exceller, mais s’avérer contre-productif s’il est utilisé aveuglément en dehors de sa zone de compétence.
Néanmoins, ces modèles permettent de créer de nouveaux services comme la personnalisation de la relation client à grande échelle. Mais pour libérer ce potentiel, la simple mutualisation technologique ne suffit pas. Il faut impérativement repenser l’organisation du travail en formant les employés pour leur donner l’autonomie nécessaire face à la machine.
En Europe, les enjeux se sont cristallisés dans les discussions autour de l’AI Act, qui introduit une catégorie spécifique pour les « systèmes d’IA à usage général », dont les modèles de fondation sont l’exemple emblématique. L’idée est de ne plus réguler uniquement les cas d’usage finaux, mais aussi ces briques génériques qui irriguent tout l’écosystème.
La Commission nationale de l’informatique et des libertés (Cnil) s’est également saisie de ces enjeux à travers un plan d’action consacré à l’intelligence artificielle, visant à accompagner l’innovation tout en garantissant la protection des droits fondamentaux. Elle met notamment l’accent sur la protection des données utilisées pour entraîner les modèles, la transparence des systèmes ainsi que le développement d’IA respectueuses de la vie privée.
Dans ce contexte, l’entraînement de ces modèles soulève aussi des défis importants au regard du règlement général sur la protection des données (RGPD), notamment concernant l’origine des données utilisées, la possibilité pour les individus d’exercer leurs droits sur leurs données et la capacité technique des systèmes à supprimer ou de ne plus exploiter certaines informations après leur intégration dans l’apprentissage. Pour les entreprises, cela signifie que ces technologies doivent être intégrées dans des démarches structurées de conformité, de documentation et de gestion des risques.
La question devient donc : dans quelles conditions utiliser les modèles de fondation ? Cela implique une gouvernance claire entre fournisseurs, intégrateurs et utilisateurs, des exigences de transparence et de documentation, l’anticipation des impacts sur l’emploi à travers la formation et la reconversion ainsi qu’une articulation avec les politiques de responsabilité sociétale des entreprises (RSE), afin d’évaluer leurs effets sociaux, organisationnels et environnementaux.
Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:45
Vera Moerbeek, Doctorante en physique, Centre national de la recherche scientifique (CNRS); Université de Perpignan Via Domitia
L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le soleil brille. Certains dispositifs photovoltaïques pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, puis de récupérer l’énergie sous forme d’électricité.
Il est devenu courant de voir des panneaux solaires sur les toits des maisons et des hangars, grâce à la baisse du prix des cellules en silicium et à leur taille compacte. Cependant, l’énergie solaire est intermittente, comme beaucoup d’autres types d’énergie renouvelable. Lors des périodes de production maximale, comme les journées estivales ensoleillées, le réseau d’électricité sature d’énergie, tandis que lors des périodes de faible production, comme le soir et en hiver, l’offre diminue alors même que la demande est la plus élevée. C’est pourquoi, afin de garantir la disponibilité de l’énergie à la demande, des solutions de stockage doivent être intégrées au réseau.
La technologie la plus utilisée pour le stockage à l’échelle du réseau électrique est le stockage hydroélectrique par pompage, mais le nombre de sites favorables en France est limité et déjà largement exploité, du fait des contraintes géographiques.
Une autre technologie courante est la batterie électrochimique : l’exemple le plus commun est celui des batteries lithium-ion des téléphones portables et des voitures. À plus grande échelle, des entreprises, par exemple Enedis, commencent à investir dans de grands parcs de batteries pour soutenir le réseau électrique. La technologie dominante pour ces très grandes batteries est la technologie lithium-fer-phosphate.
En grande partie pour cette raison, l’Agence internationale de l’énergie (IEA) dans un report récent prévoit une croissance de 42 % de la demande de lithium en 2040 par rapport à 2020. Or, l’extraction du lithium soulève des enjeux géopolitiques et humanitaires. Récemment, la possibilité d’ouvrir d’une mine dans l’Allier a intensifié le débat en France : si ces mines ont des impacts négatifs sur l’eau potable, la biodiversité et les sols, peut-on réellement soutenir qu’elles nous aideraient vers un futur durable ?
Peut-on stocker l’énergie autrement et assurer la stabilité du réseau électrique ?
Les barrages hydroélectriques et les batteries électrochimiques ne constituent pas la seule solution pour le stockage de l’énergie. Une alternative est le stockage thermique, où l’énergie est stockée sous forme de chaleur.
C’est par exemple le principe des chauffe-eau solaires. À plus grande échelle, le stockage thermique est surtout appliqué en combinaison avec des centrales solaires à concentration (CSP), comme le Crescent Dunes Solar Energy Project aux États-Unis ou l’Andasol Solar Power Station en Espagne. Cependant, le CSP reste une technologie marginale, car ces grandes centrales nécessitent un investissement initial très important et les coûts de maintenance sont élevés.
Dans ce type d’installations, la première étape est la conversion d’énergie solaire en chaleur au moyen de grands miroirs – soit paraboliques, soit petits, plats et suivant le soleil – qui concentrent le rayonnement solaire pour chauffer un fluide (conventionnellement du sel fondu). La chaleur est convertie en électricité lors de la deuxième étape, où la chaleur stockée dans le fluide entraîne une turbine.
Malheureusement, la conversion de la chaleur en énergie utile, comme l’électricité, est particulièrement difficile : l’efficacité de la conversion est limitée fondamentalement par ce qu’on appelle « la loi de Carnot ». Par exemple : à 300 °C, le maximum théorique de l’efficacité est environ 50 %, ce qui signifie que l’efficacité réelle est encore plus basse. En comparaison, l’efficacité des batteries lithium-ion, qui ne passent pas par la case « chaleur », peut surpasser 90 %.
Mais il existe une autre façon de convertir la chaleur en électricité : en utilisant le rayonnement émis par tout objet chaud (qui dépend de la température).
Tandis que les cellules photovoltaïques traditionnelles que l’on voit sur les toits et dans les fermes solaires convertissent le rayonnement solaire lui-même, l’idée de ce qu’on appelle les systèmes thermophotovoltaïques (abréviés TPV) est de récupérer le rayonnement infrarouge émis par n’importe quel objet chauffé – et qui stocke donc l’énergie sous forme de chaleur – et de la convertir en électricité.
Par exemple, le silicium fond à 1 414 °C et le graphite peut être chauffé jusqu’à plus de 2 000 °C. Ces matériaux émettent alors un rayonnement infrarouge, que l’on peut collecter grâce à des cellules photovoltaïques spéciales (comme des cellules en indium-gallium-arséniure). À de telles températures, la limite de Carnot est repoussée jusqu’à 83 % et 87 % respectivement. En pratique, les expériences réalisées au MIT, aux États-Unis, ont démontré une efficacité de plus de 40 %.
Le dispositif le plus mature à ce jour n’utilise pas le rayonnement solaire pour chauffer le milieu de stockage, mais simplement l’électricité. Il est donc similaire à une batterie lithium-ion, mais effectue des conversions d’énergie successives « électricité → chaleur → électricité » au lieu de « électricité → énergie chimique → électricité ». De tels dispositifs promettent d’être compétitifs en raison de leurs coûts relativement faibles et aujourd’hui commencent à être commercialisés à l’échelle industrielle.
Il serait encore plus intéressant de chauffer le milieu de stockage directement avec le rayonnement solaire, comme pour le CSP conventionnel, afin que le système devienne une source d’énergie renouvelable non intermittente.
Pour cette raison, nous avons réalisé le premier prototype expérimental de ce dispositif, dont le milieu de stockage est chauffé à l’aide d’un rayonnement solaire concentré, et suit donc une conversion « solaire → chaleur → électricité ». Un avantage important de notre dispositif est qu’il pourrait être rentable à une échelle beaucoup plus réduite que les systèmes CSP actuels, du fait du remplacement de la turbine par les cellules thermophotovoltaïques (TPV).
Cependant, l’efficacité globale de ce nouveau type de batterie thermique (soleil → chaleur → électricité) — et notamment l’efficacité des cellules thermophotovoltaïques elles-mêmes (pour la conversion finale de chaleur en électricité) — doit encore être améliorée au laboratoire, afin que cette technologie devienne plus compétitive.
Vera Moerbeek a reçu des financements de l'École doctorale "énergie et environnement" (ED305).
08.04.2026 à 10:31
Victor Gysembergh, Directeur de recherches au CNRS, Sorbonne Université

On la pensait perdue à jamais : une page du palimpseste d’Archimède vient d’être retrouvée au Musée des beaux-arts de Blois, dans le Loir-et-Cher. Le chercheur qui a identifié ce feuillet issu du manuscrit du Xᵉ siècle rassemblant les traités du géomètre raconte sa découverte par un hasard fécond (mâtiné d’une bonne mémoire) et propose des pistes pour retrouver deux autres feuillets encore manquants.
Le 9 mars 2026, le CNRS a annoncé que j’avais identifié, dans les réserves du Musée des beaux-arts de Blois, un feuillet du palimpseste d’Archimède considéré comme perdu. Je voudrais revenir ici sur cette histoire et sur ce qu’elle révèle : dans le silence des collections publiques et privées, avec la numérisation massive, combien de trésors restent encore invisibles, faute d’avoir été cherchés ?
Le palimpseste d’Archimède est un manuscrit du Xᵉ siècle qui rassemble sept traités du géomètre de Syracuse – dont la Méthode des théorèmes mécaniques, seul texte où il explique comment il a trouvé ses résultats avant de les démontrer. Héritier, comme beaucoup de textes antiques, d’une chaîne inconnue de recopies remontant aux originaux perdus d’Archimède (IIIᵉ siècle avant notre ère), il est le plus ancien exemplaire conservé de ses textes et, pour certains, le seul témoin. En 1229, des moines ont effacé ce trésor – probablement à l’aide d’une pierre ponce – pour y réécrire un livre de prières. Le parchemin, fabriqué dans ce cas à partir de peau de chèvre ou de mouton, valait cher (ce seul codex contenait l’équivalent d’une cinquantaine de bêtes). C’est ainsi que naissent les palimpsestes, du grec palimpsêstos (« gratté de nouveau »).
C’est le philologue danois Johan Ludvig Heiberg qui redécouvrit le texte d’Archimède à Constantinople en 1906 en déchiffrant à l’œil nu le texte effacé, puis qui fit photographier le manuscrit à la lumière blanche et ultraviolette. La découverte fit la première page du New York Times. Ses photographies, conservées aujourd’hui à la Bibliothèque royale du Danemark, ainsi que leur déchiffrement par Heiberg, restèrent longtemps la seule trace documentaire du codex, car le palimpseste disparut peu de temps après.
Il ne refit surface que plusieurs décennies plus tard, dans une collection privée française, avant d’être vendu aux enchères chez Christie’s en 1998 pour deux millions de dollars.
Le nouveau propriétaire le confia au Walters Art Museum de Baltimore, aux États-Unis, où, au début des années 2000, des expériences d’imagerie multispectrale – consistant à photographier le manuscrit sous différentes longueurs d’onde de lumière (visible, ultraviolette, infrarouge, puis rayons X) pour en tirer des informations complémentaires invisibles à l’œil nu – permirent de lire beaucoup mieux les traités d’Archimède, et de découvrir des textes qu’aucun œil humain n’avait lus depuis des siècles – dont un commentaire aux Catégories d’Aristote et un discours de l’orateur Hypéride. Mais trois feuillets parmi les 177 recensés par Heiberg avaient disparu entre-temps. Depuis lors, ils étaient considérés comme perdus à jamais.
En octobre 2025, je discutais avec des collègues du fait que Blois avait longtemps abrité une partie des bibliothèques royales de France. Par jeu, je lançai : « Tiens, cherchons s’il y a un palimpseste à Blois. » Je saisis les mots dans Arca, la bibliothèque numérique de l’Institut de recherche et d’histoire des textes. Une notice apparut : un parchemin au Musée des beaux-arts de Blois, inventaire 73.7.52.
En regardant les images numérisées, quelque chose dans l’écriture me frappa. C’est une déformation professionnelle : les années passées à fréquenter les manuscrits anciens développent une sorte de mémoire visuelle involontaire, comme on peut reconnaître une chanson à partir des premières secondes. De surcroît, l’une des faces portait une figure géométrique. Je déchiffrai le texte lisible : un passage du De la sphère et du cylindre. Je sortis les photographies de Heiberg. La comparaison fut sans appel. L’écriture, les figures, le texte lui-même : tout concordait. J’avais devant moi le feuillet 123 du palimpseste d’Archimède.
Le feuillet contient les propositions 39 à 41 du premier livre du traité. Une face est lisible ; l’autre est recouverte d’une enluminure représentant le prophète Daniel entre deux lions. Celle-ci fut vraisemblablement exécutée vers 1942 à l’instigation de son propriétaire Salomon Guerson, dans une tentative désespérée d’en augmenter la valeur pour la vendre afin d’échapper aux persécutions antisémites.
La science moderne sait regarder à travers ces obstacles. Dans les prochains mois, j’espère mener une campagne d’imagerie multispectrale puis de cartographie par fluorescence de rayons X – une technique qui détecte les résidus métalliques de l’encre ancienne sous des couches opaques, sans endommager le parchemin. Ces méthodes, bien plus performantes qu’au début des années 2000, pourraient aussi permettre de relire des passages du palimpseste restés illisibles lors de la campagne de Baltimore.
Les trois feuillets disparus ont probablement été découpés en France vers 1942. Si l’un d’eux a survécu dans les réserves d’un musée et a pu être identifié en quelques secondes de recherche numérique, les deux autres peuvent très bien avoir suivi des trajectoires comparables.
Le feuillet que j’ai reconnu avait été légué au musée en 1973 par le collectionneur André Frank (on ignore comment il l’avait acquis) et n’avait pas été identifié pour ce qu’il était. Les deux autres feuillets se trouvent peut-être dans une bibliothèque, un musée, une collection privée – en France ou dans les pays voisins. Des parchemins grecs avec, d’un côté, plusieurs couches de texte et peut-être aussi des figures géométriques et des enluminures, de l’autre. Peut-être exactement ce que vous possédez ?
Les manuscrits anciens, en particulier les palimpsestes, sont rares et précieux. Mais la numérisation ne les endommage pas, et augmente au contraire leur valeur en révélant leurs contenus. Elle permet qu’une reproduction soit déposée dans une base de données accessible.
Le feuillet de Blois a été retrouvé parce qu’André Frank l’avait légué au musée, et parce que l’institution l’avait catalogué et numérisé – sans même savoir ce qu’elle possédait. Sans cette infrastructure de partage, ma recherche dans Arca n’aurait rien donné.
Les parchemins sont aussi fragiles : humidité, variations de température, matériaux acides peuvent en quelques décennies effacer ce que vingt siècles ont préservé. L’IRHT-CNRS, la BNF, les Archives nationales ou l’équipe du projet ERC PALAI, dont je suis responsable, peuvent conseiller gratuitement tout collectionneur souhaitant protéger ses biens.
Il serait injuste de faire reposer sur les seuls collectionneurs la responsabilité des trésors qui dorment. Des milliers d’établissements (bibliothèques municipales, musées de province, fonds d’archives ecclésiastiques, collections universitaires) conservent des manuscrits que personne n’a regardés depuis trop longtemps. Les raisons de cette sous-exploration sont compréhensibles : pression à la publication, spécialisation croissante, difficulté à financer des recherches exploratoires. On ne dépose pas un projet ANR sur une recherche d’aiguille dans une botte de foin.
Et pourtant, c’est précisément ce type de recherche – patiente, buissonnière, fondée sur une curiosité sans objet défini – qui produit les découvertes les plus inattendues. Consacrer quelques heures par semaine à explorer des catalogues numériques et à écrire aux conservateurs de fonds peu consultés n’est pas du temps perdu.
Nous ne savons pas ce que nous avons. La numérisation des collections publiques est une révolution silencieuse (mais elle s’arrête aux portes des collections privées). L’œuvre d’Archimède a survécu par une série d’accidents heureux : des copistes minutieux, un philologue danois attentif, un musée qui a conservé sans le savoir un fragment de génie. À chaque maillon, quelqu’un a fait le bon choix – ou le hasard a bien fait les choses. Aujourd’hui, nous n’avons plus besoin du hasard. Il ne manque que la volonté. Et parfois, un coup de fil.
Pour signaler un palimpseste ou demander un conseil en conservation, écrire à : cnrs-palai@cnrs.fr.
Victor Gysembergh a reçu des financements de Sorbonne Université, la Mairie de Paris et l'Union européenne (ERC grant PALAI, n° 101170952).
07.04.2026 à 17:33
Maryline Laurent, Professeur Directrice du département RST, Télécom SudParis – Institut Mines-Télécom
Claire Levallois-Barth, Professeur en droit à IMT Atlantique, titulaire des chaires 'Valeurs et Politiques des Informations Personnelles' et 'Économie des Communs de Données'., Institut Mines-Télécom (IMT)
Le portefeuille européen d’identité numérique, ou PEIN, doit faciliter les démarches des citoyens et des résidents dans toute l’Union européenne. Comme les autres applications numériques, ces portefeuilles ne sont pas sans risques, et leur déploiement est encadré. Il devra aussi être contrôlé.
Nombre d’entre nous ont déjà entendu parler de France Identité, voire l’utilisent. Ce service offre une identité numérique nationale régalienne qui, d’ici la fin de l’année 2026, pourra être utilisée dans toute l’Union européenne – une fois qu’elle aura été mise en conformité avec le règlement européen eIDAS 2, qui établit le cadre européen relatif à une identité numérique.
Fin 2026, France Identité deviendra un portefeuille européen d’identité numérique (PEIN). Il permettra à chaque citoyen et résident européen de bénéficier d’un accès simplifié à différents services numériques en Europe, qu’ils soient étatiques (établir une procuration de vote par exemple) ou commerciaux (envoyer sa carte grise à son garagiste).
L’objectif est de lutter contre l’augmentation constante des usurpations d’identité et des cyberattaques, comme le phishing (ou hameçonnage) qui consiste à envoyer des SMS ou des mails frauduleux destinés à tromper la victime et à l’inciter à communiquer ses données personnelles et/ou bancaires.
À cette fin, le PEIN permettra à son utilisateur d’exercer un contrôle sur son identité et ses données, et d’accéder à des services numériques transfrontières publics et privés. Comme la plupart des applications numériques, l’introduction de ces portefeuilles comporte aussi des risques, notamment de vols d’identité, de fracture numérique ou d’ingérence étrangère.
Le PEIN permettra à son utilisateur de s’identifier auprès des services publics ou privés, notamment commerciaux, dans toute l’Union européenne (UE). Un citoyen français équipé de ce portefeuille pourra ainsi interagir avec l’administration allemande au même titre qu’un citoyen allemand, sans avoir à effectuer de démarches supplémentaires.
En fonction des besoins de son ou sa titulaire, le PEIN pourra contenir des informations, dont ses données d’état civil (prénom, nom, date de naissance, lieu de naissance et nationalité) ainsi que des justificatifs électroniques (permis de conduire, carte vitale, prescription médicale, titres de transport, factures…).
L’utilisateur pourra présenter à terme ce type d’attestations à un service, par exemple envoyer à son futur employeur son diplôme et un justificatif de domicile ou présenter une prescription médicale délivrée par son médecin français dans une pharmacie belge. Ce véritable trousseau de clés numérique lui permettra de franchir les frontières en présentant ses documents électroniques (passeport, visa, voire des billets d’avion).
Le portefeuille permettra également de signer électroniquement des documents avec des signatures dites « qualifiées ». La signature, apposée notamment sur un contrat d’ouverture de compte bancaire ou de location de voiture, aura alors la même valeur juridique qu’une signature manuscrite.
Enfin, deux personnes pourront interagir via leurs portefeuilles respectifs. Alice en voyage en Italie pourra ainsi transmettre sa procuration de vote électronique à Florian.
Tous les citoyens et les résidents de l’UE pourront disposer d’un PEIN qui ne sera pas obligatoire, l’ambition de la Commission européenne étant d’équiper 80 % des personnes d’ici à 2030.
2026 est une année charnière, car chaque État membre devra émettre au moins un PEIN d’ici la fin de l’année. Pour cela, le portefeuille devra fournir des fonctionnalités obligatoires (attestations électroniques simples et qualifiées, signatures qualifiées, génération de pseudonymes…), être certifié par chaque État membre conformément aux exigences fixées et figurer sur une liste européenne publique. Le fournisseur de PEIN sera libre de proposer des services additionnels, comme le paiement, l’horodatage ou l’archivage de documents.
Fin 2027, toutes les entreprises et administrations qui exigent une authentification forte du client, comme les banques et la Sécurité sociale, devront accepter qu’une personne prouve son identité au moyen d’un PEIN.
Le PEIN prend principalement la forme d’une application mobile téléchargée sur un smartphone. Il fonctionne en ligne et hors ligne (sans connexion).
Si l’on se base sur l’exemple de France Identité, il faut disposer d’une carte d’identité à puce contenant les données d’identification et d’un smartphone compatible NFC sous Android 11 ou iOS 16.6 minimum, et définir un code à six chiffres. L’utilisateur dispose alors d’un niveau de sécurité faible, qui permet de consulter des services comme Impots.gouv.fr, Ameli.fr ou son compte retraite.
Pour obtenir le niveau de sécurité élevé, le titulaire du PEIN doit se rendre en mairie pour une vérification en face-à-face. Cette vérification est indispensable pour les démarches en ligne les plus sensibles, auparavant uniquement réalisables en présentiel, comme l’établissement d’une procuration de vote ou une demande d’aide sociale.
Dans les années à venir, il est possible que des États membres émettent des portefeuilles fournis par des acteurs privés.
C’est déjà le cas de la Belgique qui devrait notifier auprès de la Commission européenne le PEIN MyGov.be, qui permet déjà aux citoyens belges d’accéder en ligne à leurs documents administratifs, ainsi que le PEIN Itsme, fourni par un consortium d’acteurs privés.
La question de la gratuité constitue un point important. La délivrance et l’utilisation du portefeuille sont ainsi gratuites pour un individu. En ce qui concerne les signatures électroniques qualifiées à des fins non professionnelles, elles seront aussi gratuites, chaque État membre étant libre de décider des modalités. Par exemple, la Pologne offre cinq signatures gratuites par mois et par citoyen.
L’utilisation des signatures électroniques à des fins professionnelles pourra être payante. En Belgique, le fournisseur privé du portefeuille Itsme facture 4,95 euros hors TVA par signature qualifiée.
Le PEIN est conçu comme une réponse aux nombreuses usurpations d’identité et au phishing (hameçonnage en français). Il doit permettre aux fournisseurs de services de lutter contre la fraude et les fausses déclarations, notamment concernant l’âge minimum requis pour accéder à des sites pornographiques ou de jeux en ligne. Les démarches qui nécessitent aujourd’hui d’envoyer la photocopie de sa carte d’identité et de son permis de conduire pour louer une voiture pourront être entièrement numérisées.
Un autre avantage, conditionné par la mise en œuvre de moyens techniques adaptés, est le contrôle accru de l’utilisateur sur le traitement de ses données personnelles) : il pourra librement choisir et utiliser des pseudonymes et les utiliser, si l’authentification forte n’est pas requise. Grâce à un tableau de bord obligatoire, il pourra visualiser l’historique des données transmises, demander l’effacement de ses données, et signaler les demandes de données suspectes à la Commission nationale de l’informatique et des libertés (Cnil) – ce qui renforcera l’efficacité des contrôles. Il pourra également sélectionner les données qui figureront ou non dans un justificatif à présenter à un tiers, protégeant ainsi sa vie privée.
Le portefeuille devrait aussi intégrer des technologies de protection de la vie privée. Par exemple, un mineur pourra prouver à un réseau social qu’il a moins de 15 ans et une personne majeure qu’elle a plus de 18 ans, sans avoir à fournir ses nom, prénom et date de naissance, grâce à des technologies de preuve à divulgation nulle de connaissance (ou ZKP, pour Zero-Knowledge Proof en anglais).
De plus, seuls les fournisseurs de services publics et privés inscrits sur une liste publique pourront interagir avec les PEIN. Ces « parties utilisatrices » devront notamment indiquer les données qu’elles demanderont. Les fournisseurs d’attestations et de signatures qualifiées devront, quant à eux, obtenir une qualification préalable (délivrée en France par l’Agence nationale de la sécurité des systèmes d’information, ou Anssi) et figureront eux aussi sur une liste publique. C’est donc un véritable écosystème des identités numériques qui se met en place.
Selon certaines estimations, au moins une quarantaine de portefeuilles devraient participer à ce nouveau marché, qui, malgré les discours rassurants de la Commission européenne, n’en présente pas moins un certain nombre de risques.
Du côté de l’utilisateur, le premier risque est d’être contraint en pratique d’utiliser un PEIN conçu comme un véritable sésame numérique pour accéder à de nombreux services publics et privés. Cette situation pourrait conduire à laisser de côté une partie de la population qui ne pourra pas, faute d’argent ou de compétences, disposer d’un PEIN pour accéder aux services fournis.
Un autre risque concerne la vie privée des utilisateurs, car il est à craindre que le portefeuille numérique n’augmente la quantité de données personnelles collectées à leur insu. En effet, si nous avons insisté sur l’avantage que représente la lutte contre la collecte abusive de données (grâce à la possibilité de générer des pseudonymes), encore faut-il que le portefeuille soit mis en œuvre dans le respect du règlement général sur la protection des données (RGPD). Il faut donc s’assurer, par exemple, qu’un fournisseur de portefeuille n’insère pas de numéro unique à chaque transaction, ce qui permettrait de tracer l’utilisateur malgré toutes les précautions prises pour ne pas révéler son identité et ses données.
Pour contrer cette menace, le droit de l’UE impose que les portefeuilles soient certifiés avant leurs notifications à la Commission européenne et leurs mises sur le marché. Cette certification apportera donc certaines garanties qui ne seront pas absolues, comme l’ont démontré plusieurs événements par le passé, par exemple l’affaire PEGASUS en 2021 et celle des cartes ID électroniques en Estonie en 2017.
De fait, les cyberattaquants pourront chercher à voler non seulement l’identité d’une personne, mais aussi les données associées à son identité. Certaines d’entre elles, comme les noms, les prénoms et les diplômes, seront de haute qualité, car leur authenticité aura été vérifiée auprès de sources authentiques, comme le registre d’état civil.
Du côté des États de l’UE, le PEIN questionne leur souveraineté, car ceux-ci sont les seuls aujourd’hui à pouvoir établir l’identité d’une personne avec un niveau de fiabilité élevé.
La fourniture des PEIN par des entreprises privées non européennes augmente les risques d’ingérence étrangère qui sont loin de constituer une simple hypothèse. Par exemple, Nicolas Guillou, juge français à la Cour pénale internationale, est placé sous le coup de sanctions états-uniennes depuis août 2025. Comme Thierry Breton, ancien commissaire européen, il est interdit de séjour aux États-Unis, en raison de son implication dans le dossier du mandat d’arrêt visant le premier ministre israélien Benyamin Nétanyahou. Il est privé d’accès aux services numériques états-uniens, d’Airbnb à Amazon. Sa carte Visa lui a même été retirée.
Pour éviter ce type de sanctions, le projet européen APTITUDE travaille à l’intégration dans le PEIN d’une solution de paiement souverain fourni par WERO.
Le PEIN pourrait être un formidable outil du quotidien. Cependant, de nombreux choix restent encore à opérer, en particulier en matière d’implémentation, d’enrôlement, de révocation et de cybersécurité pour lutter efficacement contre les usurpations d’identités. Pour tenir la promesse d’un monde numérique plus sûr, des contrôles effectifs (comme des audits des fournisseurs de PEIN) et des sanctions dissuasives à l’encontre des acteurs (européens et non européens) devront être mis en place.
Pour autant, il reste essentiel de disposer d’une alternative physique aux documents numériques. Le maintien de documents physiques permettra non seulement de préserver la résilience et la souveraineté d’un État en cas de cyberattaque, mais aussi à chaque citoyen de choisir ou non d’utiliser un PEIN.
Les projets Traceability for trusted multi-scale data and fight against information leak in daily practices and artificial intelligence systems in healthcare – TracIA et More on the adoption of a healthy Mediterranean diet – MoreMedDiet sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Maryline Laurent a reçu des financements de la Fondation Mines-Télécom, de l’Agence Nationale de la Recherche (ANR) et de plusieurs partenaires industriels tels que EDF et Orange.
Claire Levallois-Barth a reçu des financements de la Fondation Mines-Télécom. Les partenaires de la Chaire VP-IP qu'elle coordonne sont BNPP, IN Groupe, France Titres, Orange.
04.04.2026 à 17:33
Robyn Klingler-Vidra, Vice Dean, Global Engagement | Associate Professor in Political Economy and Entrepreneurship, King's College London
La puissance technologique de Taïwan dans les semi-conducteurs joue aujourd’hui un rôle clé dans les équilibres géopolitiques mondiaux. Derrière ce « bouclier de silicium » se cache une stratégie industrielle patiemment bâtie depuis plus de cinquante ans.
Une entreprise, Taiwan Semiconductor Manufacturing Company (TSMC), produit à elle seule plus de 90 % des semi-conducteurs les plus avancés au monde. Des puces essentielles aux smartphones, à l’intelligence artificielle, au calcul haute performance et aux systèmes militaires de pointe.
La domination de Taïwan dans les puces les plus avancées constitue un véritable point d’étranglement pour l’économie mondiale. Quelques jours ou semaines d’arrêt de leur production suffiraient à affecter l’approvisionnement et les prix de nombreux produits dans le monde. La situation est comparable à la manière dont les perturbations actuelles du transport maritime dans le golfe Persique, liées à la guerre avec l’Iran, affectent les marchés dépendants du pétrole à l’échelle mondiale.
La suprématie taïwanaise dans la fabrication de semi-conducteurs a transformé l’île en ce que je décris dans mes recherches comme une « superpuissance de niche ». Elle exerce une influence mondiale disproportionnée en contrôlant une industrie stratégiquement indispensable.
Taïwan n’est pas arrivé par hasard à cette position. Dans les années 1970, des technocrates taïwanais ont compris que le pays ne pouvait pas encore rivaliser avec les leaders mondiaux de l’électronique. L’un d’eux était Kwoh-Ting Li, alors ministre de l’Économie, souvent considéré comme le « père du miracle économique taïwanais ».
À l’époque, Taïwan ne disposait ni du capital financier ni des compétences technologiques nécessaires pour rivaliser avec les leaders du secteur comme le Japon et les États-Unis. Plutôt que de chercher à dominer l’ensemble de l’industrie des semi-conducteurs, de la conception jusqu’à la production, les responsables politiques taïwanais ont donc choisi de développer des compétences dans la fabrication de précision. Il s’agit de l’étape la plus exigeante sur le plan opérationnel dans la chaîne de valeur des semi-conducteurs.
Fondé en 1973 par le gouvernement taïwanais, l’Industrial Technology Research Institute a soigneusement acquis des technologies de fabrication des semi-conducteurs grâce à des accords de licence conclus avec l’entreprise américaine aujourd’hui disparue Radio Corporation of America (RCA). L’institut a ensuite formé toute une génération d’ingénieurs taïwanais.
Le moment charnière date de 1987, lorsque Morris Chang a fondé TSMC dont nous parlions en introduction. Ingénieur formé aux États-Unis, Chang avait passé plusieurs décennies au sein de la multinationale américaine spécialisée dans les semi-conducteurs Texas Instruments. Il a alors imaginé ce que l’on appelle aujourd’hui le modèle de la « pure-play foundry », le modèle de fonderie taïwanais.
Plutôt que de concevoir et de fabriquer ses propres puces sous sa marque, TSMC s’est spécialisé dans la fabrication de puces pour d’autres entreprises. Ce choix stratégique a été déterminant, car il a rassuré les entreprises américaines et européennes du secteur des semi-conducteurs en leur montrant que TSMC n’entrerait pas en concurrence avec elles. Cela a permis à de grandes entreprises technologiques comme Qualcomm, puis plus tard Nvidia, d’externaliser la production de leurs puces à Taïwan sans craindre de fuite de propriété intellectuelle ni de rivalité stratégique.
L’industrie taïwanaise des semi-conducteurs s’est développée au sein du Parc scientifique de Hsinchu, un grand pôle industriel situé au sud de la capitale taïwanaise, Taipei. Au début des années 1990, le parc de Hsinchu accueillait plus de 140 entreprises de fabrication de puces et employait environ 30 000 personnes. La puissance de ce cluster a attiré de nombreux ingénieurs taïwanais installés aux États-Unis, contribuant à faire de Taïwan le leader mondial de la production de semi-conducteurs avancés.
La domination de Taïwan dans les semi-conducteurs a joué un rôle manifeste dans la protection de l’île face à sa menace existentielle — le risque d'invasion chinoise. Ce phénomène a été explicitement évoqué en 2021 dans un article publié dans la revue Foreign Affairs, dans lequel l’ancienne présidente taïwanaise Tsai Ing-wen affirmait que l’industrie des semi-conducteurs de Taïwan constituait un « bouclier de silicium ».
Selon elle, la dépendance de l’économie mondiale à l’égard des puces avancées fabriquées à Taïwan signifie que les perturbations provoquées par une invasion chinoise entraîneraient des conséquences économiques catastrophiques à l’échelle mondiale. Les alliés de Taïwan seraient donc contraints de venir à sa défense.
Ces dernières années, le « bouclier de silicium » de Taïwan est toutefois menacé. Depuis le début, en 2020, des restrictions américaines sur l’exportation vers la Chine d’équipements avancés de fabrication de puces, Pékin a accéléré ses efforts pour développer des capacités nationales de production de semi-conducteurs. Les investissements dans l’industrie chinoise des puces ont fortement augmenté.
Les semi-conducteurs ont constitué l’un des points faibles de la stratégie Made in China 2025, par laquelle les dirigeants chinois entendaient transformer leur pays en superpuissance de la tech. Et si la Chine n’a pas atteint ses objectifs en matière de localisation de la production de semi-conducteurs et de part de marché mondiale, manquant les objectifs fixés pour 2025, des fabricants chinois de puces comme HiSilicon et Semiconductor Manufacturing International Corporation gagnent du terrain. Une proposition présentée en mars par treize dirigeants de l’industrie chinoise des semi-conducteurs fixe pour objectif d’atteindre 80 % d’autosuffisance d’ici à 2030. Aujourd’hui, elle se situe autour de 33 %.
Dans le même temps, Washington cherche à rapatrier la production de semi-conducteurs sur le sol américain. Des initiatives lancées sous l’administration Biden, comme le Chips and Science Act, ont créé des incitations pour soutenir l’immense site de production de TSMC en Arizona, ouvert en 2022 dans le cadre des efforts des États-Unis pour renforcer leur production nationale de puces.
Ces incitations accordées à TSMC comprenaient jusqu’à 6,6 milliards de dollars (environ 5,7 milliards d'euros) d’investissements directs ainsi que d’importants crédits d’impôt. TSMC a initialement engagé 65 milliards de dollars (56 milliards d'euros) dans ce projet, l’administration Trump annonçant en mars 2025 que l’entreprise augmenterait encore ses investissements aux États-Unis de 100 milliards de dollars supplémentaires (86 milliards d'euros).
Elon Musk a de son côté récemment annoncé des projets d’installations d'unités de production de puces avancées au Texas pour ses deux entreprises, Tesla et SpaceX. Face aux inquiétudes du milliardaire selon lesquelles des entreprises comme TSMC ne produisent pas le volume de puces dont ses sociétés ont besoin, le projet baptisé « Terafab » vise à regrouper toutes les étapes de la production de semi-conducteurs sous un même toit. Son coût est estimé autour de 21 milliards d'euros. D’autres entreprises investissent également dans la fabrication de puces aux États-Unis, notamment Micron, Texas Instruments et Intel.
Malgré les efforts des États-Unis et de la Chine, reproduire l’écosystème industriel de Taïwan reste difficile. Cela exige non seulement du capital et des équipements, mais aussi un savoir-faire accumulé sur plusieurs décennies, ainsi que des réseaux de fournisseurs très denses et une main-d’œuvre d’ingénieurs sans équivalent.
TSMC a d'ailleurs rencontré des difficultés à recruter des talents en Arizona et a dû faire venir par avion des milliers de travailleurs depuis Taïwan afin d’améliorer les compétences des équipes locales. Et tandis que TSMC produit désormais des semi-conducteurs à la pointe de la technologie à l’échelle de 2 nanomètres, les objectifs chinois d’autosuffisance visent plutôt à disposer d’« équipements entièrement produits sur le territoire national » pour les générations de puces moins avancées, de 7 et 14 nanomètres.
Or ma différence entre les puces de 2 nm et celles de 7 nm est considérable : elles offrent environ 45 % de performances supplémentaires tout en consommant 75 % d’énergie en moins. Les puces les plus fines sont utilisées pour des applications de pointe comme l’intelligence artificielle avancée, tandis que les puces plus larges sont employées dans une gamme plus étendue d’appareils électroniques, comme les smartphones, les processeurs d’ordinateurs et les automobiles.
L’histoire des semi-conducteurs à Taïwan est, au fond, celle d’une remarquable clairvoyance stratégique. En choisissant de se spécialiser dans la fabrication plutôt que dans la conception, en s’insérant dans les réseaux technologiques dominés par les États-Unis et en développant une expertise de classe mondiale dans les procédés industriels, Taïwan a transformé une vulnérabilité structurelle en véritable puissance structurelle.
Grâce à sa domination dans les semi-conducteurs, Taïwan apparaît comme l’exemple par excellence d’une superpuissance de niche. Mais l’histoire montre que le statut de superpuissance, même dans un domaine spécifique, n’est jamais permanent. La frontière technologique se déplace, les rivaux apprennent et les alliés prennent leurs précautions.
Pour Taïwan, rester indispensable à l’économie mondiale exigera donc non seulement de conserver une avance technologique. Il faudra aussi orchestrer avec soin les fondements politiques, financiers et humains qui ont rendu possible, initialement, son « bouclier de silicium ».
Robyn Klingler-Vidra a reçu une subvention de recherche de la Chiang Ching-kuo Foundation entre 2019 et 2023. Cette subvention a financé une recherche sur la formation et les parcours professionnels des responsables des politiques d’innovation en Asie du Nord-Est depuis l’après-guerre. L’étude a été publiée dans la revue World Development en avril 2025 et est disponible ici : https://www.sciencedirect.com/science/article/pii/S0305750X25000646
03.04.2026 à 16:26
Gregory Radisic, Fellow at the Centre for Space, Cyberspace and Data Law; Senior Teaching Fellow, Faculty of Law, Bond University
Samantha Lawler, Associate Professor, Astronomy, University of Regina

Des dizaines de milliers de satellites sont déjà en orbite, et plus d’un million sont envisagés. Cette industrialisation du ciel pourrait bouleverser l’observation astronomique, la navigation et certaines traditions culturelles, sans que ces impacts soient réellement pris en compte par la régulation.
Le 30 janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission (FCC) des États-Unis pour déployer une mégaconstellation pouvant compter jusqu’à un million de satellites, constellation destinée à alimenter des centres de données dans l’espace.
Le projet prévoit des satellites opérant entre 500 et 2 000 kilomètres d’altitude en orbite terrestre basse. Certaines de ces orbites sont conçues pour bénéficier d’une exposition quasi permanente au soleil. Le public peut d’ailleurs actuellement soumettre des commentaires sur cette proposition.
La demande déposée par SpaceX n’est que la dernière en date d’une série de projets de mégaconstellations de satellites. Satellites qui remplissent généralement une fonction unique et ont une durée de vie relativement courte, d’environ cinq ans avant d’être remplacés.
En février 2026, environ 14 000 d’entre eux étaient déjà en orbite. Dans le même temps, 1,23 million de satellites supplémentaires sont en projet. La procédure d’autorisation de ces satellites repose presque exclusivement sur les informations techniques, très limitées, que les entreprises qui les produisent fournissent aux régulateurs. Les conséquences culturelles, spirituelles – et une grande partie des impacts environnementaux de ces objets – restent largement ignorées. Pourtant, elles devraient faire partie de l’évaluation.
À cette échelle de croissance, le ciel nocturne sera durablement transformé à l’échelle mondiale, et ce pour des générations.
Les satellites en orbite terrestre basse réfléchissent la lumière du soleil pendant environ deux heures après le coucher du soleil et avant son lever. Malgré des efforts d’ingénierie visant à réduire leur luminosité, ces satellites – parfois de la taille d’un camion – apparaissent dans le ciel nocturne comme des points lumineux en mouvement. Les projections montrent que les futurs satellites vont considérablement accroître cette pollution lumineuse.
En 2021, des astronomes estimaient que, d’ici moins d’une décennie, un point lumineux sur quinze dans le ciel nocturne serait un satellite en mouvement. Cette estimation ne prenait pourtant en compte que les 65 000 satellites de mégaconstellations proposés à l’époque.
Une fois qu’un million d’entre eux seront déployés, les conséquences pour le ciel nocturne pourraient être difficiles à inverser. Si la durée de vie moyenne d’un satellite n’est que d’environ cinq ans, les entreprises conçoivent ces mégaconstellations pour être remplacées et étendues en permanence. Le résultat : une présence industrielle continue dans le ciel nocturne.
Tout cela provoque un « syndrome du glissement de référence » (shifting baseline syndrome) appliqué à l’espace : chaque nouvelle génération finit par considérer comme normal un ciel nocturne de plus en plus dégradé. Les satellites qui se croisent dans le ciel deviennent la norme.
Pour la première fois dans l’histoire de l’humanité, ce glissement de référence signifie que les enfants d’aujourd’hui ne grandiront pas avec le même ciel nocturne que celui qu’ont connu toutes les générations précédentes.
Le volume colossal de satellites envisagés suscite des inquiétudes de toutes parts. Les astronomes redoutent notamment les reflets lumineux intenses et les émissions radio qui risquent de perturber les observations du ciel.
Dans l’industrie aussi, les alarmes se multiplient : gestion du trafic orbital, risques de collision, coordination internationale. Contrairement à l’aviation, il n’existe toujours pas de système unifié de gestion du trafic spatial.
Les mégaconstellations augmentent aussi le risque de syndrome de Kessler, une réaction en chaîne de collisions potentiellement incontrôlable. On compte déjà 50 000 débris en orbite d’au moins dix centimètres. Si les satellites cessaient toute manœuvre d’évitement, les dernières données montrent qu’une collision majeure surviendrait en moyenne tous les 3,8 jours.
Les préoccupations culturelles sont également nombreuses. La pollution lumineuse générée par les satellites risque d’affecter les usages autochtones du ciel nocturne liés à des traditions orales anciennes, à la navigation, à la chasse ou encore à des pratiques spirituelles.
Le lancement d’un si grand nombre de satellites nécessite par ailleurs d’énormes quantités de carburants fossiles, ce qui peut endommager la couche d’ozone. Une fois leur mission terminée, ces satellites sont conçus pour brûler dans l’atmosphère. Ce procédé soulève une autre inquiétude environnementale : le dépôt de grandes quantités de métaux dans la stratosphère, susceptibles de provoquer une dégradation de l’ozone et d’autres réactions chimiques potentiellement nocives.
Tout cela soulève aussi des questions juridiques. En vertu du droit spatial international, ce sont les États – et non les entreprises – qui sont responsables des dommages causés par leurs objets spatiaux.
Les juristes spécialisés dans le droit de l’espace tentent désormais de déterminer si ce cadre juridique peut réellement permettre de tenir les entreprises ou les particuliers responsables. La question devient d’autant plus pressante que les risques de dégâts matériels, de morts ou de dommages environnementaux irréversibles augmentent.
Aujourd’hui, les règles qui encadrent les projets de satellites sont essentiellement techniques : elles portent par exemple sur les fréquences radio utilisées. Au niveau national, les autorités se concentrent surtout sur la sécurité des lancements, la limitation des impacts environnementaux sur Terre et la responsabilité en cas d’accident.
Ce que ces réglementations ne prennent pas en compte, en revanche, c’est l’effet qu’auraient des centaines de milliers de satellites lumineux sur le ciel nocturne – pour la recherche scientifique, la navigation, les transmissions et cérémonies autochtones…
Ces effets ne relèvent ni des atteintes environnementales « classiques », ni de simples questions d’ingénierie. Ce sont des impacts culturels qui échappent largement aux cadres de régulation actuels. C’est pourquoi le monde aurait besoin d’une évaluation de l’impact sur les « ciels nocturnes », comme le proposent les juristes spécialisés en droit spatial Gregory Radisic et Natalie Gillespie.
L’objectif serait de mettre en place une méthode systématique pour identifier, documenter et réellement prendre en compte l’ensemble des effets d’une constellation de satellites avant son déploiement.
La première étape consisterait à recueillir des données auprès de l’ensemble des parties prenantes. Astronomes – amateurs comme professionnels –, scientifiques de l’atmosphère, chercheurs en environnement, spécialistes des questions culturelles, communautés concernées et acteurs industriels apporteraient chacun leur point de vue.
Ensuite, il serait essentiel de modéliser les effets cumulés des satellites. Les évaluations devraient analyser comment ces constellations modifieront la visibilité du ciel nocturne et la luminosité du ciel, la congestion orbitale et le risque de victimes au sol.
Troisièmement, il faudrait définir des critères clairs pour déterminer dans quels cas la préservation d’un ciel dégagé est essentielle – pour la recherche scientifique, la navigation, l’enseignement, les pratiques culturelles ou encore le patrimoine commun de l’humanité.
Quatrièmement, l’évaluation devrait prévoir des mesures d’atténuation : réduction de la luminosité des satellites, modification des orbites ou ajustement du déploiement afin d’en limiter les dommages. Elle pourrait aussi inclure des incitations à utiliser le moins de satellites possible pour un projet donné.
Enfin, les conclusions devraient être transparentes, pouvoir faire l’objet d’un examen indépendant et être directement prises en compte dans les décisions d’autorisation et les politiques publiques.
Cette évaluation de l’impact sur les ciels nocturnes ne vise pas à bloquer le développement spatial. Elle permet plutôt de clarifier les arbitrages et d’améliorer la prise de décision. Elle peut conduire à privilégier dès la des satellites réduisant la luminosité et les interférences visuelles, à choisir des configurations orbitales limitant l’impact culturel, à des consultations plus précoces et plus approfondies, ainsi qu’à une meilleure prise en compte des dimensions culturelles lorsque les dommages ne peuvent être évités.
Surtout, elle garantit que les communautés concernées par les constellations de satellites ne découvrent pas leur existence une fois les autorisations déjà accordées – lorsque des points lumineux commencent à traverser leur ciel.
La question n’est plus de savoir si le ciel nocturne va changer : il est déjà en train de changer. Le moment est venu pour les gouvernements et les institutions internationales de mettre en place des règles équitables, avant que ces transformations ne deviennent irréversibles.
Gregory Radisic est affilié à l’International Institute of Space Law ainsi qu’à l’Institute on Space Law and Ethics de l’organisation For All Moonkind Inc.
Samantha Lawler reçoit des financements du Natural Sciences and Engineering Research Council of Canada. Elle est également fellow de l’Outer Space Institute.
01.04.2026 à 11:14
Cédric Sueur, Professeur des Universités en éthologie, primatologie et éthique animale, Université de Strasbourg
L’humain s’est placé au-dessus de toutes les autres espèces animales. Comment changer notre relation avec elles pour sortir d’une logique de domination et aller vers des formes de coexistence et de coopération ?
Chaque année, des milliards d’animaux sont élevés, transportés et abattus pour répondre aux besoins alimentaires, scientifiques ou industriels des sociétés humaines. Cette utilisation intensive du vivant pose une double question. Elle est d’abord éthique, car elle implique la souffrance et la mise à mort d’êtres vivants sensibles. Elle est aussi environnementale et sanitaire : la déforestation pour l’élevage intensif, la pollution conséquente et la proximité accrue entre espèces favorisent les déséquilibres écologiques et l’émergence de maladies.
Le concept de One Health (une seule santé) et la crise du Covid-19 rappellent que la santé humaine dépend étroitement de celle des animaux et des écosystèmes. Ces crises ne sont pas indépendantes. Elles révèlent un même rapport au vivant, fondé sur l’exploitation et la mise à distance physique et émotionnelle. Comprendre ce rapport est une condition nécessaire pour le transformer.
Les recherches en éthologie ont profondément renouvelé notre regard sur les animaux. De nombreuses espèces manifestent des émotions, des capacités d’apprentissage, des formes de coopération et des relations sociales complexes. Chez certains primates, mais aussi chez des éléphants, des corvidés ou des cétacés, on observe des comportements qui suggèrent des formes de conscience, d’empathie, de culture et de deuil.
Pourquoi, malgré ces connaissances, continuons-nous à exploiter les animaux à grande échelle ? Une partie de la réponse tient à notre héritage culturel. Les sociétés occidentales modernes se sont construites sur une séparation entre l’humain et le reste du vivant, associée à une hiérarchisation qui place l’homme au sommet.
Le concept de « spécisme », inventé par Richard Ryder en 1970, désigne cette discrimination fondée sur l’espèce. Il conduit à considérer que les intérêts des humains priment systématiquement sur ceux des autres êtres qui souffrent tout autant. Dans sa structure, ce mécanisme n’est pas sans analogie avec le racisme ou le sexisme : il repose sur une différence érigée en critère de domination.
Le spécisme décrit cependant avant tout une attitude morale, un biais cognitif et éthique dans la manière dont nous évaluons les intérêts des différentes espèces. La notion de « colonisation animale », que je développe dans Décoloniser notre rapport aux animaux (Odile Jacob, 2026), cherche à aller plus loin en désignant les structures concrètes qui organisent et perpétuent cette domination.
Là où le spécisme interroge les représentations, la colonisation animale pointe les dispositifs institutionnels, économiques et culturels qui les rendent opératoires : les animaux sont appropriés, contrôlés, transformés en ressources économiques et symboliques. Le droit les protège partiellement en tant qu’êtres vivants sensibles, tout en les maintenant dans le régime des biens. L’économie en fait des marchandises et tend à invisibiliser les violences qui leur sont infligées. Ces dimensions se renforcent mutuellement et stabilisent un système de domination qui dépasse la seule question des représentations pour s’incarner dans des pratiques, des lois et des rapports de pouvoir.
Cette manière de penser n’est pourtant pas universelle. De nombreuses sociétés non occidentales, comme les Achuar d’Amazonie, les aborigènes d’Australie ou les Japonais, envisagent les relations entre humains et non-humains autrement. Plutôt que de séparer radicalement les êtres, elles insistent sur les continuités, les interdépendances et les relations.
Les travaux de l’anthropologie, en particulier de Philippe Descola (les Lances du crépuscule, 1993) ou de Bruno Latour (Enquête sur les modes d’existence, 2012), ont ainsi montré l’existence de différentes « ontologies », c’est-à-dire des manières de définir et de se représenter ce qui existe et comment les êtres sont liés. Ces sociétés ou ethnies sont, par exemple, animistes et attribuent aux animaux une intériorité – autrement dit une vie intérieure faite d’intentions, d’émotions, de perceptions et de subjectivité propre, comparable à celle que nous reconnaissons aux humains – ou les considèrent comme des partenaires inscrits dans des réseaux de relations.
Sans idéaliser ces perspectives, elles offrent des ressources pour sortir d’une vision strictement utilitariste du vivant. Elles invitent à penser une coexistence fondée non sur la domination, mais sur la réciprocité et l’attention aux interdépendances.
Décoloniser notre rapport aux animaux suppose d’abord de transformer nos pratiques les plus ordinaires. L’alimentation constitue un levier central : réduire la consommation de produits animaux permet de limiter à la fois la souffrance animale et l’impact environnemental.
Au-delà, il s’agit de repenser la manière dont nous partageons les espaces. L’urbanisation a longtemps exclu les autres espèces. Une approche « zooinclusive » développée par la chercheuse Émilie Dardenne propose au contraire d’intégrer leurs besoins dans la conception des villes : favoriser la présence d’oiseaux, d’insectes ou de petits mammifères, aménager des continuités écologiques ou encore adapter les bâtiments pour accueillir d’autres formes de vie.
Cette approche trouve déjà des traductions concrètes. Certaines villes européennes, comme Vienne, Bruxelles ou Londres, ont ainsi intégré des nichoirs et des gîtes à chauves-souris dans les façades de bâtiments rénovés. D’autres ont aménagé des passages fauniques sous les axes routiers pour permettre les déplacements des mammifères sauvages, ou encore maintenu des toitures végétalisées favorisant la biodiversité des pollinisateurs. À Singapour, la politique des « corridors verts » cherche explicitement à reconnecter des fragments d’habitats naturels au sein du tissu urbain. En France, la trame verte et bleue, inscrite dans la législation depuis le Grenelle de l’environnement, constitue une tentative institutionnelle d’intégrer ces continuités écologiques à l’échelle du territoire.
Ces transformations ne relèvent pas seulement de choix individuels, mais aussi de décisions collectives en matière d’aménagement et de politiques publiques.
La protection des animaux sauvages s’inscrit souvent dans une logique de gestion : il s’agit de réguler, contrôler, parfois éliminer certaines populations jugées problématiques. Les carnivores sont particulièrement visés. En France, le loup cristallise les tensions entre éleveurs et défenseurs de la nature depuis son retour naturel dans les Alpes dans les années 1990. En Afrique, le lion fait l’objet de conflits similaires : lorsqu’il s’attaque au bétail des communautés rurales, il est perçu comme une menace directe pour la survie économique des familles, ce qui conduit à des empoisonnements ou des abattages, parfois tolérés voire encouragés par les autorités locales.
Les grands herbivores ne sont pas épargnés : en Afrique australe et orientale, les éléphants, dont les populations se sont reconstituées dans certaines zones protégées, provoquent des destructions massives de cultures, écrasent des habitations, tuent des êtres humains. Ces conflits humains-éléphants poussent des communautés à réclamer des abattages, voire à tolérer le braconnage comme seule réponse à une menace perçue comme existentielle. Le braconnage lui-même, souvent présenté uniquement sous l’angle criminel, s’alimente parfois de cette exaspération locale, même s’il est également structuré par des réseaux internationaux aux enjeux économiques considérables. Cette approche gestionnaire prolonge, sous d’autres formes, une relation de domination du vivant, ce que l’historien Guillaume Blanc nomme un nouveau colonialisme vert : des décisions prises depuis l’extérieur, au nom de la nature, sans tenir compte des réalités vécues par les populations locales.
Décoloniser la conservation consiste à reconnaître davantage l’autonomie des animaux, leur « souveraineté sauvage », comme la définissent les philosophes Donaldson et Kymlicka, et à respecter leurs habitats. Cela implique de passer d’une logique de contrôle à une logique de coexistence, en cherchant des formes de médiation entre les intérêts humains et non humains. Des initiatives de terrain, comme le projet Cibel dans la forêt du bassin du Congo, montrent qu’il est possible de concilier activités humaines et présence de la faune sauvage, à condition d’accepter la complexité de ces relations.
La science elle-même n’échappe pas à ces enjeux. Les animaux y sont souvent considérés comme des objets d’étude ou des modèles expérimentaux. Intégrer leur « agentivité animale », c’est-à-dire leur capacité à agir et à influencer les situations, conduit à repenser les protocoles de recherche vers une coopération humain – non humain plutôt que vers des sacrifices animaux.
En primatologie, par exemple, certaines approches cherchent à limiter les contraintes imposées aux animaux et à mieux prendre en compte leurs comportements spontanés. Lancée par l’éthologue Tetsuro Matsuzawa, cette approche d’observation participante est une collaboration humanimale. Plus largement, le développement de méthodes alternatives permet de réduire le recours à l’expérimentation animale. Décoloniser les sciences ne signifie pas renoncer à la recherche, mais en interroger les présupposés et les finalités des utilisations animales.
L’expérimentation animale constitue un point de tension majeur. Si certains travaux sont justifiés par des enjeux de santé, d’autres apparaissent plus discutables au regard des souffrances infligées. Des outils comme le « cube de Bateson » proposent d’évaluer les recherches en fonction de leurs bénéfices attendus, de leur probabilité de réussite et des dommages causés aux animaux. Mais dans la pratique, la réflexion éthique reste souvent limitée. Décoloniser l’expérimentation suppose de renforcer ces exigences, de développer des alternatives et de questionner la légitimité même de certaines recherches.
Décoloniser notre rapport aux animaux, c’est finalement transformer en profondeur notre manière d’habiter le monde. Il ne s’agit pas de supprimer toute relation avec eux, mais de sortir d’une logique de domination pour aller vers des formes de coexistence et de coopération, ce qui est nommé le « capital animal ». Les animaux ne sont plus de simples matériaux pour manger ou se vêtir, mais sont des aides sociales, des passeurs culturels (ils nous transmettent des informations sur notre environnement) et des managers écosystémiques (ils nous aident à gérer nos écosystèmes).
Ce changement est à la fois éthique, écologique et politique. Il implique de reconnaître que les humains ne sont pas extérieurs au vivant, mais en font partie. Dans un contexte de crises multiples, repenser nos relations avec les autres espèces apparaît non comme un luxe, mais comme une nécessité pour la survie de tous dont l’humanité.
Cédric Sueur est l'auteur de l'ouvrage « Décoloniser notre rapport aux animaux » publié aux Editions Odile Jacob dont l'article fait mention.
01.04.2026 à 11:14
Rémi Noraz, Doctorant en Archéobiologie et Paléoécologie, Université de Montpellier
Des pépins de raisin retrouvés sur des sites archéologiques peuvent sembler anodins. Pourtant, l’analyse de leur ADN donne accès à l’histoire plurimillénaire de la vigne cultivée.
Nous avons séquencé le génome de pépins vieux de plusieurs millénaires, révélant une histoire déjà entrevue par l’archéologie : celle de l’introduction de la viticulture en France, des échanges de cépages à l’échelle européenne et de pratiques agricoles anciennes qui ont laissé des traces jusqu’à aujourd’hui.
Nos résultats, publiés tout récemment dans Nature communications, montrent notamment que certains cépages emblématiques, comme le pinot noir variété phare de Bourgogne, étaient déjà présents au Moyen Âge.
L’histoire de la vigne s’est longtemps appuyée sur l’étude morphologique des pépins. Cette puissante approche a permis de distinguer de grandes tendances, notamment sur le caractère sauvage ou domestique des pépins, et retracer les débuts de la viticulture.
Cependant, certaines questions restaient difficiles à trancher : origine géographique des cépages, relations de parenté, ou encore les modes de multiplication (croisement ou reproduction clonale) et circulation des plants. L’ADN ancien pouvant être préservé au cœur même des pépins apporte ici une aide particulièrement décisive, comme témoin des relations entre les vignes du passé et celles d’aujourd’hui.
Nous avons ainsi analysé 49 pépins provenant de différents sites archéologiques, majoritairement français, et couvrant près de 4 000 ans, de l’âge du Bronze à la fin du Moyen Âge. Ces pépins gorgés d’eau ont été préservés dans des contextes spécifiques, humides, ayant contribué à une bonne préservation de leur ADN.
L’ADN a été extrait dans le laboratoire spécialisé en ADN ancien du Centre d’anthropobiologie et de génomique de Toulouse, conçu pour isoler et manipuler les molécules aussi rares que dégradées qui ont traversé les époques dans les restes archéologiques. Cet ADN ancien a pu être décrypté grâce à des technologies de séquençage de pointe jusqu’à en lire la totalité de l’information génétique, soit ici un texte génétique d’environ 500 millions de lettres.
Ces données permettent d’établir les relations génétiques entre individus, d’identifier les origines des cépages et de retrouver les techniques de propagations passées : soit par croisement, mélangeant des variétés d’origine ou de qualités distinctes ; soit par reproduction clonale (par bouturage, marcottage ou greffe) pour maintenir à l’identique dans le temps une variété qui leur était particulièrement précieuse.
Les premières vignes cultivées apparaissent en France aux alentours de -600 avant notre ère, avec le développement des échanges méditerranéens, notamment du vin. Elles coexistent avec des vignes sauvages locales, et des croisements entre ces deux types contribuent à la diversité des cépages.
Les analyses génétiques confirment également l’existence de circulations à longue distance dès cette période. Des influences venues d’Ibérie, des Balkans ou du Proche-Orient témoignent des échanges des plants et de savoir-faire à l’échelle de la Méditerranée et, plus généralement, de l’Europe.
Autre point important : la multiplication clonale apparaît comme une pratique ancienne et commune, déjà en place dès l’âge du Fer. Elle a permis de maintenir certaines variétés d’intérêt sur de longues périodes et de les diffuser sur de longues distances.
C’est dans ce cadre que nous avons identifié un pépin médiéval considéré comme étant génétiquement identique au pinot noir actuel, illustrant la continuité de certains cépages sur plusieurs siècles.
L’apport de l’ADN ancien ne se limite pas à confirmer des scénarios existants : il ouvre aussi de nouvelles pistes.
En combinant données anciennes et modernes, il devient possible d’aller plus loin dans la caractérisation des vignes du passé. Des approches récentes permettraient par exemple d’inférer certaines caractéristiques des raisins anciens, comme la couleur des baies ou certains traits liés au goût.
Ces méthodes pourraient aussi permettre de mieux comprendre les adaptations des cépages aux environnements du passé, ou encore les choix opérés par les sociétés anciennes dans leurs pratiques agricoles.
À terme, ces recherches contribuent à mieux documenter la diversité génétique de la vigne et son évolution, un enjeu important dans le contexte actuel de changements climatiques.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Rémi Noraz a reçu des financements de l'ANR MICA (ANR-22-CE27-0026).
01.04.2026 à 11:13
Agnès Cousin, Astronome adjoint, Responsable scientifique de SuperCam, IRAP, Centre national d’études spatiales (CNES); Université de Toulouse
Magali Bouyssou, Responsable des opérations instruments, Centre national d’études spatiales (CNES)
Olivier Gasnault, Chargé de recherche au CNRS, Institut de Recherche en Astrophysique et Planétologie, Centre national d’études spatiales (CNES)
Valérie Mousset, Cheffe de projet de la participation française au projet Mars Science Laboratory, Centre national d’études spatiales (CNES)

Depuis cinq ans, le rover Perseverance nous en apprend plus sur la géologie de Mars, et ainsi sur les anciennes conditions de la Planète rouge. Aurait-elle pu abriter la vie par le passé ? Les études se succèdent, la dernière en date venant de sortir en mars 2026. On dresse le bilan des découvertes permises par SuperCam, l’un des instruments principaux du rover.
Le 18 février 2026, nous avons fêté les cinq ans de l’atterrissage du rover Perseverance sur Mars, dans le cratère de Jezero. À la suite du succès du précédent rover Curiosity, qui explore toujours la Planète rouge depuis son atterrissage en août 2012, la Nasa a lancé la mission « Mars 2020 ». Après plus de six mois de voyage, Perseverance se pose sur Mars avec en son bord de nombreux instruments, dont le nôtre, appelé SuperCam. C’est le début d’une nouvelle ère d’exploration martienne : la recherche de potentielles traces de vie ancienne et la collecte d’échantillons qui devraient un jour revenir sur Terre !
Bien sûr, nous nous intéressons aussi à la géologie et au climat de Mars. Le cratère Jezero n’a pas été sélectionné par hasard comme site d’atterrissage : les observations orbitales y montrent un ancien delta de rivière très bien préservé, ainsi que des signatures de carbonates, des minéraux qui se forment lorsque des roches interagissent avec de l’eau et du CO₂. Ce sont donc de précieux témoins des conditions qui régnaient lors de leur apparition sur Mars. Ces observations orbitales démontrent donc que l’eau a joué un rôle important dans l’histoire de ce site.
Sur Terre, les environnements des lacs et des deltas sont aussi les meilleurs pour piéger et préserver des molécules organiques, qui se retrouvent mélangées aux sédiments très fins transportés par la rivière, puis enfouies dans le delta où ils se déposent. Le site de Jezero fournit donc l’enregistrement d’un environnement passé propice à la conservation de molécules organiques et est, de ce fait, un bon endroit pour chercher des conditions favorables à l’émergence de la vie.
Durant les trois premiers mois de la mission, chacun des instruments et des sous-systèmes du rover ont pu se mettre en marche et commencer à fournir de précieuses informations. En particulier, cette période est marquée par le premier vol historique du drone Ingenuity, le 19 avril 2021. Ce démonstrateur technologique a prouvé la faisabilité de vols motorisés dans l’atmosphère ténue de Mars, ouvrant alors une nouvelle dimension de l’exploration martienne.
Parmi les sept instruments embarqués par Perseverance, on trouve SuperCam, qui constitue la « tête » du rover. Il a été développé en collaboration entre la France et les États-Unis. Cet instrument combine plusieurs spectromètres, des appareils capables d’analyser la composition chimique et minéralogique de la surface de Mars. En plus des spectromètres, SuperCam embarque une caméra, afin de documenter le contexte géologique des lieux où sont réalisées les analyses, et un microphone, qui permet d’étudier l’atmosphère de Mars. En France, nous sommes 13 instituts impliqués dans cette aventure martienne.
Très rapidement après l’atterrissage, SuperCam a acquis un panorama d’une butte, nommée Kodiak, qui nous a permis de confirmer la nature du delta dans Jezero, à savoir qu’il est formé de sédiments charriés par une rivière se jetant dans un lac. Un tel système permet de reconstruire l’histoire passée de l’eau dans cette région. Ces observations nous ont montré que le niveau du lac fluctuait, mais qu’il s’agissait d’un lac fermé la plupart du temps, c’est-à-dire sans cours d’eau qui en ressort, contrairement à ce que les observations orbitales avaient suggéré auparavant.
Quinze mois plus tard, Perseverance est arrivé au pied du delta dont l’exploration a confirmé ces premières observations et a permis de mieux comprendre l’évolution du lac au cours du temps. Plus récemment, sur la bordure du cratère, SuperCam a découvert du quartz pour la première fois de manière certaine sur Mars ! Le quartz n’est pas rare lorsqu’il est observé dans une roche magmatique, du granite par exemple. Mais dans le cas de cette observation, le contexte est très différent, sans relation avec du volcanisme. Cette roche est probablement liée à un impact de météorite qui aurait facilité la circulation et la remontée d’eau chaude en fracturant la roche, créant un système hydrothermal et des conditions propices à la formation de quartz.
Entre la première photographie de Kodiak et l’arrivée au delta, la première campagne scientifique a débuté en juin 2021 en explorant deux types d’environnements géologiques du fond du cratère. Perseverance a d’abord trouvé des roches volcaniques. Pour se repérer sur Mars, les géologues donnent des noms informels aux zones étudiées. Ainsi la première formation de roches volcaniques a été appelée « Màaz ». Il s’agit d’une succession de coulées de lave à la surface. La seconde (appelée « Seítah ») correspond à un cumulât d’olivines, des roches constituées de gros grains obtenus en cristallisant un minéral, l’olivine, en profondeur sous la surface. Ces roches ont été très peu altérées par l’eau.
Les modèles suggèrent que ces deux environnements géologiques ne proviennent pas de la même source magmatique, mais de deux volcans différents ou de deux chambres magmatiques différentes sous un même volcan. Des échantillons de ces roches, s’ils reviennent sur Terre, nous permettront de dater ces terrains et de mieux comprendre leur mise en place par rapport à la formation du lac présent sur le site.
C’est en bordure de cet ancien lac que Perseverance a détecté, en 2024, les carbonates dont nous parlions plus haut, en grande quantité, confirmant les détections orbitales. Il est important de déterminer leur abondance in situ, car ces sédiments ont pu piéger le carbone de l’atmosphère, qui devait être plus épaisse dans le passé. L’analyse minutieuse de ces roches nous a permis de comprendre leur processus de formation : il s’agirait de roches magmatiques ayant longuement interagi avec l’eau du lac et du système hydrothermal, enrichie par le CO2 dissout dans l’eau.
La prise en compte de ce processus dans le cycle du carbone martien donne une nouvelle perspective au devenir du carbone et de l’habitabilité passée de cette planète. En effet, la communauté recherchait jusque-là des carbonates similaires aux calcaires des anciens fonds océaniques terrestres. Or, comme nous l’avons vu, les observations de Perseverance montrent qu’un autre processus de formation des carbonates a eu lieu sur Mars. Il faut donc le prendre en compte pour étudier le cycle du carbone martien et son influence sur les conditions climatiques passées, lesquelles déterminent combien de temps l’eau a pu rester liquide à la surface de Mars, qui en est dépourvue aujourd’hui. La présence d’eau étant nécessaire pour rendre la planète habitable, c’est ce qui rend cette découverte importante.
C’est d’ailleurs dans le même secteur, dans la vallée de l’ancienne rivière se déversant dans le lac, que Perseverance a détecté des traces potentielles de biosignatures. La présence simultanée de matière organique et de phosphate et sulfure de fer rappelle des réactions chimiques qui, sur Terre, sont parfois utilisées par les microorganismes dans des processus biologiques. Seule l’analyse sur Terre de ces échantillons pourra trancher sur l’origine de ces composés et répondre à la question de l’habitabilité passée de Mars.
Une étude récente, menée grâce au radar à bord du rover, a pu mettre en évidence la présence d’un environnement fluvial enfoui sous le delta actuel, démontrant que de l’eau circulait déjà il y a plus de 3,7 milliards d’années. Ces observations sont particulièrement importantes pour l’habitabilité passée de la planète et les recherches de biosignatures anciennes.
Perseverance, depuis cinq ans, a aussi scruté l’atmosphère martienne. SuperCam et un autre instrument, MastCam-Z ont observé une aurore diffuse, comme une aurore boréale, mais qui ne se limite pas aux pôles, pour la première fois depuis la surface martienne. Mais c’est le microphone de SuperCam qui s’est nous a permis de sonder l’atmosphère de la planète, en dressant pour la première fois le paysage sonore martien. Ces écoutes permettent de déduire des propriétés importantes de l’atmosphère comme la vitesse du son qui varie selon la nature de l’atmosphère. Les bruits enregistrés sont aussi sensibles à la turbulence atmosphérique, ce qui permet d’étudier ces petits flux d’air proche de la surface.
Toujours grâce au microphone, nous avons récemment pu mettre en évidence des décharges électriques, de sortes de petits éclairs qui apparaissent dans des tourbillons qui soulèvent la poussière dans l’atmosphère. Cette détection permet d’apporter de nouvelles informations, car la dynamique des poussières dans l’atmosphère influe sur sa température et donc sur le climat. Ces petits éclairs pourraient aussi jouer un rôle insoupçonné dans la chimie atmosphérique et à la surface, par exemple en interagissant avec les composants chlorés pour former de nouvelles molécules, ou en cassant certaines molécules déjà existantes.
Après 43 km parcourus, et près de 1 500 roches martiennes analysées par SuperCam, Perseverance est désormais sorti du cratère de Jezero et explore sa bordure. Cette région expose des terrains vieux de plus de 3,8 milliards d’années, c’est-à-dire antérieurs à l’impact qui a formé le cratère, voire même à la formation du grand bassin régional Isidis dans lequel il se trouve. Ces roches sont les plus anciennes jamais étudiées in situ par un rover martien et offrent donc une fenêtre unique sur les premiers millions d’années de l’histoire de Mars. Les analyses en cours devraient révéler les conditions environnementales qui régnaient sur la planète rouge à cette époque reculée. Jezero tient bien ses promesses en termes de richesses des terrains, et de nombreuses découvertes nous attendent encore !
Agnès Cousin a reçu des financements du CNES, pour le projet Mars2020/SuperCam. Son laboratoire de recherche (IRAP) a aussi pour tutelle l'université de Toulouse et le CNES.
Olivier Gasnault a reçu des financements du CNES pour le projet Mars2020/SuperCam ; il est salarié du CNRS. Son laboratoire de recherche (IRAP) a aussi pour tutelle l'université de Toulouse.
Magali Bouyssou et Valérie Mousset ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.04.2026 à 10:45
Antoine Dutot, Maître de conférence en informatique, Université Le Havre Normandie
Damien Olivier, Professeur des universités en informatique, directeur du laboratoire LITIS (Laboratoire d’Informatique, du Traitement de l’Information et des Systèmes), Université Le Havre Normandie
Jean-Luc Ponty, Maître de conférences, Université Le Havre Normandie
Yoann Pigné, Professeur en informatique, Université Le Havre Normandie
Fourmis, étourneaux, lucioles… sans centre de décision unique, ces collectifs accomplissent des tâches complexes à partir d’informations strictement locales. Ils convergent vers de bons trajets, se synchronisent, se déplacent en nuées denses sans collision. Pour cela, il suffit en fait de règles simples, combinées à des rétroactions, où l’action de chaque individu modifie légèrement l’environnement ou l’état du groupe et où cette modification influence en retour les actions suivantes. Cette logique inspire aujourd’hui des algorithmes pour piloter des systèmes distribués, des robots aux réseaux de capteurs, par exemple.
On associe spontanément l’intelligence à un organe central, un cerveau, une tour de contrôle, un « grand modèle » qui verrait tout et déciderait pour tous. Pourtant, une bonne partie du vivant fait exactement l’inverse. Il n’y a pas de contrôle centralisé et, malgré tout, on observe des comportements collectifs remarquables.
Un murmure d’étourneaux au crépuscule forme des nuages mouvants, fluides, sans collisions apparentes. Une colonne de fourmis en quête de nourriture trouve des chemins efficaces sans vision globale. Certaines espèces de lucioles finissent par clignoter ensemble, comme si un métronome invisible donnait le tempo.
Dans ces exemples, la nature coordonne sans commander. Le point commun n’est pas l’absence de hiérarchie au sens social (une fourmilière a des rôles), mais l’absence de calcul et de prise de décision centralisés. La coordination émerge de règles locales, de signaux partagés, d’interactions et de rétroactions. C’est l’intuition au cœur de l’intelligence en essaim (swarm intelligence), obtenir un comportement global cohérent à partir de règles locales simples. Un algorithme en essaim en est la traduction informatique : une population d’agents simples explore collectivement une solution sans contrôleur central, à partir d’informations locales et de boucles de rétroaction.
Pour comprendre ce qui se passe, un bon réflexe en science est de chercher si un même schéma se dégage : une règle locale donne un effet global, qui peut être traduit au sein d’une algorithmique… et déboucher sur un usage concret.
Passons en revue trois cas significatifs : trois mécanismes simples observés dans la nature, qui ont donné trois familles d’algorithmes.
Règle locale. Un individu modifie son environnement en laissant une trace chimique, une structure, un marquage.
Effet global. Les actions futures sont orientées par ces traces ainsi certaines pistes se renforcent, d’autres disparaissent. C’est une communication indirecte, via l’environnement, qui a été appelée stigmergie pour expliquer la coordination chez les termites.
Traduction algorithmique. Cette idée a été reprise en informatique, notamment pour les algorithmes de type « colonie de fourmis ».
Usage concret. Optimiser des trajets, répartir des flux, résoudre des problèmes combinatoires. Pour cela, on explore plusieurs solutions, puis on renforce progressivement les meilleures (un peu comme si les bonnes pistes « sentaient plus fort » au fil des itérations).
Nuance utile : la reine n’est pas un « chef calculateur ». Elle a un rôle biologique central, la reproduction, mais la décision (au sens algorithmique) reste distribuée : aucune entité ne détient le plan d’ensemble.
Règle locale. Je m’aligne avec mes voisins, je garde une distance de sécurité, je reste dans le groupe.
Effet global. Des formations fluides, adaptatives, robustes aux perturbations.
Traduction algorithmique. En informatique, le modèle « Boids » a popularisé l’idée qu’un mouvement collectif réaliste peut émerger de quelques règles de voisinage simples.
Ce que la recherche a affiné. Pour les étourneaux, une idée clé est que l’interaction semble surtout topologique, c’est-à-dire que chaque oiseau « suit » un nombre à peu près constant de voisins (plutôt qu’une distance fixe), ce qui aide à garder la cohésion quand la densité varie brutalement (attaque d’un prédateur, par exemple).
Usage concret. Modéliser des foules, coordonner des robots, concevoir des contrôleurs distribués qui restent stables quand l’environnement bouge vite ou encore faire voler des essaims de drones autonomes en formation serrée sans GPS centralisé, comme l’ont démontré des équipes de recherche récentes.
Règle locale. J’ai une horloge interne. Si je vois mon voisin clignoter, je l’ajuste légèrement.
Effet global. Petit à petit, les ajustements se propagent et le groupe se synchronise.
Traduction algorithmique. C’est la logique des oscillateurs couplés : un cadre mathématique classique (famille des oscillateurs de « Kuramoto ») pour expliquer comment un ensemble d’unités faiblement couplées peut finir par battre à l’unisson.
Ancrage biologique. Des travaux de synthèse sur la synchronisation des lucioles décrivent les mécanismes, les hypothèses et les limites de ce phénomène dans le vivant.
Usage concret. Ce principe est utile chaque fois qu’un grand nombre d’objets doivent agir ensemble au bon moment, sans chef d’orchestre. Par exemple, dans un réseau de capteurs dispersés dans une forêt pour détecter un départ de feu, il faut que les appareils se réveillent, mesurent et transmettent leurs données de façon coordonnée afin d’économiser leur batterie et de ne pas saturer les communications. Le même mécanisme peut aussi servir à faire travailler ensemble une flotte de petits robots ou de drones qui doivent avancer au même rythme malgré des échanges imparfaits. L’idée générale est simple : obtenir un comportement collectif synchronisé même lorsque chaque unité ne dispose que d’une information locale et de signaux parfois bruités.
Les modèles d’essaim se présentent souvent sous forme d’équations et de simulations, comme dans la vidéo ci-dessus. Mais on les comprend parfois mieux… en les voyant « vivre ». Dans les projets de médiation LED it be et Arduiciole, des collaborations entre fab Lab et laboratoire de recherche où nous utilisons des matrices de LED, d’objets lumineux ou des ballons gonflés à l’hélium, chaque lumière suit une règle locale simple : clignoter, attendre, se caler sur ses voisins, ou réagir à une « trace » dans son environnement. Ce ne sont pas de simples ampoules, mais des pixels qui s’éveillent à la vie artificielle. Le dispositif rend visible l’invisible : il simule des automates cellulaires ou des modèles de synchronisation inspirés des lucioles.
Ce que le public observe alors n’est pas un code, mais une dynamique : propagation d’un motif, stabilisation, bascule, synchronisation. La démonstration est double : le modèle n’est pas le réel, mais un outil pour isoler un mécanisme ; la complexité collective est une propriété liée aux interactions, et non à chaque individu pris séparément.
Ces principes de coordination distribuée intéressent les ingénieurs et les scientifiques pour une raison simple, ils offrent souvent trois avantages simultanés : robustesse, passage à l’échelle, adaptabilité. C’est exactement la promesse de la robotique en essaim, qui s’inspire explicitement de l’auto-organisation du vivant, mais aussi des algorithmes en essaim.
On retrouve ces principes dans une grande variété de systèmes. Ils sont particulièrement utiles lorsqu’il faut identifier de bonnes configurations dans un ensemble de possibilités immense, comme en logistique, en calibration ou en réglage de paramètres, car ils permettent de faire émerger progressivement des solutions efficaces sans pilotage central.
Ils servent aussi à organiser l’exploration collective, qu’il s’agisse de répartir des robots, des drones ou des entités logicielles pour couvrir une zone, cartographier un environnement, détecter des signaux ou parcourir un espace de recherche.
Enfin, ils offrent un cadre robuste pour maintenir la cohérence d’un système distribué en synchronisant les comportements, en assurant une coordination locale et en préservant le fonctionnement global malgré la perte ou la défaillance de certaines unités.
Ces systèmes ne sont pourtant ni spontanément stables ni naturellement sûrs. Hors des environnements idéalisés, les perceptions sont imparfaites, les échanges sont retardés et la communication entre agents reste souvent partielle. Dans ces conditions, une règle locale élégante en simulation peut devenir fragile en situation réelle. De plus, dès lors que la coordination dépend de signaux partagés, qu’il s’agisse d’une trace, d’un rythme commun ou d’une information sur un meilleur état collectif, la fiabilité de ces signaux devient un enjeu central. Un signal erroné, perturbé ou manipulé peut suffire à désorganiser l’ensemble. La décentralisation n’élimine donc pas le risque ; elle impose de penser autrement la robustesse, en la ramenant au niveau des interactions.
L’intelligence en essaim invite à l’humilité. Elle montre que la force d’un collectif ne vient pas toujours d’un chef, mais de la qualité des interactions entre ses membres. À partir de règles simples, un groupe peut faire émerger une organisation efficace, souple et robuste. La puissance réside alors dans la capacité à agir ensemble. Ce passage du « je » au « nous » offre un modèle de résilience fondé sur la coopération et l’adaptation.
Damien Olivier a reçu des financements de l'ANR et de la commission Européenne.
Yoann Pigné a reçu des financements de l'Agence Nationale de la Recherche.
Antoine Dutot et Jean-Luc Ponty ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2026 à 17:07
Ludovic Slimak, Archéologue et chercheur au CNRS, Auteurs historiques The Conversation France; Université de Toulouse
Un article récent paru dans Science a été largement lu comme s’il révélait une préférence des hommes néandertaliens pour les femmes sapiens. Cette lecture, séduisante pour nos imaginaires contemporains, nous maintient dans une zone de confort où l’altérité se laisse encore penser dans les termes du désir et de l’attirance. Mais dès que l’on restitue les chromosomes à l’épaisseur des sociétés, en croisant génétique, archéologie et anthropologie culturelle, une autre image se dessine, plus dérangeante, qui touche à quelque chose de plus nu dans l’humain : des groupes structurés par des règles de circulation, des réciprocités inégales, des frontières, des alliances et peut-être des violences dont nous commençons à peine à mesurer la profondeur.
À lire les titres de presse, l’affaire semble entendue. El País annonce que les hommes néandertaliens « choisissaient » les femmes sapiens. Science évoque une « partner preference ». National Geographic imagine déjà les « Roméos de la préhistoire ». The Telegraph laisse entendre que les Néandertaliens « avaient des vues sur » les femmes sapiens.
En quelques heures, une analyse statistique est devenue un récit de désirs. La « vie sexuelle » de nos ancêtres était enfin à portée de clics. Le glissement n’a rien d’anodin. Il transforme une asymétrie de transmission génétique en récit d’affects, en attirances et en romances passées. On fabrique une scène où le Roméo néandertalien remporte le cœur de la Juliette sapiens. Le discours sur nos origines devient roman-photo.
Or, l’étude parue dans Science ne raconte rien de tel. Les auteurs interrogent un motif bien connu. Chez les humains modernes non africains, les traces d’ADN néandertalien ne sont pas réparties uniformément et sont plus fréquentes dans les chromosomes non sexuels que sur le chromosome X, qui en est fortement appauvri.
Pour expliquer ce contraste, les auteurs confrontent plusieurs hypothèses, sélection naturelle, biais démographiques liés au sexe ou préférence de partenaire. Leur conclusion reste prudente : une préférence de partenaire est un mécanisme parcimonieux possible, mais elle n’exclut ni des biais démographiques ni des scénarios plus complexes.
L’étude ne montre donc ni une attirance observée ni une préférence vécue. Elle propose quelque chose de beaucoup plus étroit : dans l’espace de modèles qu’elle teste, certains scénarios rendent plus plausible une asymétrie de type mâles néandertaliens/femelles sapiens. Dans un tel schéma, l’ADN néandertalien peut se transmettre largement dans les chromosomes ordinaires, tandis que le chromosome X néandertalien circule plus difficilement, puisqu’un père ne le transmet qu’à ses filles. Ce n’est pas rien. Mais ce n’est pas non plus l’observation directe d’une attirance entre populations, et montrer qu’un modèle statistique peut produire un motif génétique n’est pas prouver que ce modèle est historiquement vrai.
Dès que l’on passe des données génétiques à leurs implications historiques et sociales, les lectures deviennent fragiles. Les chromosomes ne transmettent pas la mémoire fidèle de la vie sociale de nos ancêtres. Le fait que l’ADN néandertalien soit rare sur le chromosome X ne permet pas, en soi, de reconstituer les organisations sociales du Paléolithique ni les préférences sexuelles de ces populations.
Lorsque deux groupes proches se croisent, les chromosomes sexuels ne se comportent pas comme les autres. Ils sont souvent plus sensibles aux incompatibilités et à la sélection naturelle. Prenons le cas d’un père néandertalien et d’une mère sapiens. Leur enfant reçoit bien de l’ADN néandertalien dans beaucoup de ses chromosomes. Mais le chromosome X du père ne passe pas aux garçons, seulement aux filles. Il circule donc moins facilement d’une génération à l’autre. De plus, dans les hybridations entre groupes proches, les mâles sont souvent les plus fragiles biologiquement, avec davantage de problèmes de survie ou de fertilité. C’est pourquoi les chromosomes sexuels, et en particulier le chromosome X, peuvent perdre plus vite l’ADN venu de l’autre groupe. Un appauvrissement du chromosome X en ADN néandertalien peut ainsi relever d’un phénomène biologique classique, et non du souvenir d’un choix amoureux.
Le signal observé aujourd’hui peut donc avoir plusieurs causes. Les auteurs eux-mêmes ne présentent pas la « préférence de partenaire » comme une preuve directe, mais comme l’explication la plus parcimonieuse dans leur modèle statistique. Ils précisent qu’elle n’exclut ni des biais démographiques liés au sexe, ni des scénarios plus complexes où sélection naturelle, migrations différenciées et asymétries sexuées auraient agi ensemble.
La génétique détecte des transmissions. Elle ne reconstitue pas une société. Elle ne dit ni si ces unions relevaient d’alliances, de captures, d’échanges asymétriques, de violence ou de choix, ni qui décidait, ni sous quelles contraintes circulaient femmes et hommes entre les groupes. Entre un patron chromosomique et une scène de vie, il manque encore tout un monde, celui des constructions sociales, des règles de résidence, des hiérarchies, des conflits et des asymétries entre collectifs.
Les gènes, malgré tout leur pouvoir, ne parlent pas des amours passés. Ils parlent seulement de ce qui a survécu.
C’est ici que l’archéologie et l’anthropologie culturelle redeviennent décisives, car les gènes ne suffisent pas à reconstituer la scène sociale des rencontres entre Néandertal et Sapiens. Il faut alors quitter le seul article de Science pour revenir à d’autres données et tenter malgré tout d’accéder, indirectement, à la structure des groupes néandertaliens. Le site d’El Sidrón, dans le nord de l’Espagne, fournit à cet égard un point d’appui particulièrement fort.
Les auteurs de l’étude y ont identifié des ossements appartenant à au moins 12 néandertaliens. Le point le plus frappant concerne les adultes. Trois mâles portent la même lignée mitochondriale, alors que trois femelles présentent chacune une lignée différente. Or, l’ADN mitochondrial ne se transmet que par les mères. Les chercheurs en ont tiré une lecture simple et lourde d’implications : les hommes seraient restés dans leur groupe, tandis que les femmes auraient davantage circulé entre groupes. En d’autres termes, El Sidrón serait compatible avec un système patrilocal.
L’idée est décisive. Toute population humaine a besoin d’échanges avec l’extérieur pour se reproduire sur la durée. Dans de très nombreuses sociétés humaines, cette circulation passe d’abord par les femmes, qui quittent plus souvent leur groupe d’origine que les hommes. Plus généralement la dispersion féminine et le maintien des mâles dans leur groupe constituent aussi un schéma prédominant chez les grands singes. Voir apparaître chez Néandertal un signal compatible avec une plus forte mobilité féminine relève donc d’une tendance comportementale profonde, que l’on retrouve des primates aux sociétés humaines, et la mobilité féminine entre groupes est ici l’explication la plus plausible du motif observé. Pour une fois, nous disposons donc d’un point d’appui concret sur l’organisation sociale néandertalienne.
Et cette tendance profonde à la dispersion féminine change beaucoup de choses car dès lors tout un monde social devient pensable : échanges de femmes entre groupes, intégrations asymétriques, circulations réciproques ou non, alliances, captures, ou formes plus dures encore de relations intergroupes. À partir de là, la question n’est plus seulement de savoir quel chromosome a survécu, mais dans quel type de société ces transmissions ont eu lieu. Et cette seule possibilité suffit déjà à déplacer la lecture du papier de Science, car l’asymétrie génétique observée pourrait alors relever d’un monde social, encore inexploré, structuré par des règles de résidence, de circulation et d’échange.
Intégrer les contraintes de l’anthropologie culturelle aux lectures biomoléculaires permet d’autres basculements. En Belgique, le site de Goyet a livré les ossements de quatre néandertaliennes et de deux immatures. Les traces de découpe y sont nettes sur cinq d’entre eux. Le profil démographique de cet assemblage apparaît trop singulier pour relever d’une mortalité ordinaire. Les signatures isotopiques suggèrent une origine géographique non locale. Les auteurs avancent l’hypothèse d’un cannibalisme lié au conflit, une prédation ciblant les femelles des groupes voisins. Si cette interprétation est juste, elle dit quelque chose de brutal. Ici les relations entre groupes néandertaliens ne relevaient pas d’un monde sentimental mais de la capture, de la mise à mort et de la consommation de l’autre.
Les données peuvent effectivement être lues ainsi, mais ce dossier oblige aussi à la prudence. Le corpus est réduit. Les fouilles sont anciennes. Les données spatiales manquent. L’identité du groupe local prédateur n’est pas directement observée. Ici encore, les traces ne parlent pas d’une seule voix.
C’est alors qu’un renversement devient possible. Si l’on quitte un instant le seul regard biomoléculaire pour revenir au social, une société patrilocale change profondément le sens des corps. Les femmes viennent d’autres groupes, mais dans des mondes où la mobilité féminine est un schéma commun, des grands singes jusqu’aux sociétés humaines, l’interprétation de ce signal devient immédiatement plus subtile.
Le constat d’un cannibalisme affectant des femmes provenant de régions voisines peut donc se lire comme la simple prédation sur des étrangères. Mais il ne peut exclure une autre lecture, celle d’un traitement interne, ritualisé, de femmes venues d’ailleurs, mais désormais pleinement intégrées au groupe. La biologie et la génétique ne peuvent nous dire si un individu né ailleurs reste un étranger ou devient un membre plein et entier de mon propre monde social.
Retournons alors à l’étude de Science. C’est ici qu’il faut être très précis sur ce qu’elle démontre réellement. Le signal d’ascendance sapiens mobilisé par les auteurs renvoie à un épisode très ancien, autour de 250 000 ans. Leur démonstration ne repose donc pas sur l’observation directe du principal métissage qui a laissé sa trace chez les humains actuels. Elle suppose que le même mécanisme génétique aurait été encore à l’œuvre 200 000 ans plus tard, au moment des ultimes contacts entre Sapiens et Néandertal.
Si l’on considère la très forte tendance à la mobilité des femelles, un paradoxe apparaît et met profondément en tension l’extrapolation proposée par l’article de Science. Si des femmes sapiens entraient réellement et régulièrement dans des groupes néandertaliens, on s’attendrait à voir persister, chez les derniers néandertaliens, un signal génétique récent d’ascendance sapiens. Or, ce n’est pas ce que montrent les données disponibles. Chez les premiers Sapiens anciens d’Eurasie, l’héritage néandertalien est constant. En revanche, les génomes néandertaliens exploités jusqu’alors ne documentent aucun apport récent sapiens au sein des dernières populations néandertaliennes. Le flux génétique reconnu au moment des contacts fonctionne donc dans une seule direction, de Néandertal vers Sapiens.
Une autre hypothèse anthropologique devient alors pensable. Dans un monde patrilocal, la circulation des femmes ne règle pas seulement la reproduction mais structure les alliances entre groupes. Si l’échange cesse d’être réciproque, c’est toute la relation qui change. La formule est rude, mais elle dit bien ce paradoxe :
« Je prends ta sœur, mais je ne te donne pas la mienne. »
Il ne s’agit pas d’en faire une description mécanique de chaque croisement, mais cette formule nomme une structure possible : celle d’un rapport inégal entre ces humanités, voire d’une dissymétrie sociale durable entre groupes néandertaliens et sapiens. C’est ce lien entre flux génétique à sens unique, patrilocalité et non-réciprocité de l’échange qui m’avait conduit, dans Néandertal nu en 2022, à relever ce paradoxe singulier : « Néandertal, Sapiens, je t’aime, moi non plus. »
Replacé dans ce cadre, le sens des signatures moléculaires bascule. L’asymétrie ne se lit plus comme la trace fossile d’une préférence, mais comme l’un des effets possibles d’un rapport structurellement inégal entre populations humaines. Ajoute-t-on à cela le fait que les chromosomes sexuels éliminent plus vite certains apports génétiques, et le tableau change encore. Ce que l’on croyait lire comme un roman du désir pourrait bien relever, plus profondément, de structures sociales asymétriques.
Projeter sur la très longue histoire de l’humanité nos récits de désir, de goût et de préférence nous permet de rester dans notre zone de confort. Mais la confrontation à l’altérité est toujours plus rude. Nos valeurs n’ont aucune universalité spontanée. Elles ne peuvent servir de socle pour penser les mondes disparus. Les rencontres entre Néandertal et Sapiens ne se laissent réduire ni à des amours passées ni à des guerres simplement transposées depuis nos imaginaires modernes. Ce que les chercheurs tentent d’approcher, ce sont des structures sociales, des formes d’échange, des frontières entre groupes, la qualité des alliances, des manières de faire monde.
Pour cela, aligner des chromosomes ou des isotopes ne suffit pas. La paléoanthropologie doit retrouver son sens plein. Elle n’est pas seulement science des os mais étude éthologique, culturelle et sociale des sociétés humaines du passé.
La difficulté n’est donc pas de choisir entre des disciplines certaines et d’autres fragiles, mais d’apprendre à faire dialoguer des champs de savoir qui travaillent tous, chacun à leur manière, sur des traces incomplètes.
La vraie leçon est peut-être là. Les chromosomes ne nous racontent pas une petite histoire d’amour entre populations. Ils ouvrent vers des questions bien plus vastes. Qui entre dans le groupe. À quelles conditions. Selon quelles règles de circulation. Sous quelle réciprocité ou non-réciprocité. Avec quelle violence, parfois. Et surtout avec quelle transformation du statut des personnes.
Le corps, sa peau, ses os, ses gènes, ses isotopes, ne nous diront jamais rien de la réalité de l’individu dans un corps social. L’humain est cette créature qui n’est pas réductible à sa matière.
Chez les humains, l’étranger ne naît que du regard qui l’exclut.
Alors oui, la question est bien une question de goût. Mais pas forcément au sens où l’ont entendu les grands médias. Ce que les journaux ont transformé en affaire de préférence sentimentale pourrait bien relever, en réalité, de quelque chose de beaucoup plus profond et, parfois, dans certaines formes de cannibalisme, de beaucoup plus littéral…
Les illustrations de cet article sont extraites de la bande dessinée Néandertal nu, de Frédéric Bihel et Ludovic Slimak, publiée chez Odile Jacob, 2026.
Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2026 à 14:03
Nick Dalton, Associate Professor in the School of Computer Science, Northumbria University, Newcastle

De la démocratisation de l’ordinateur personnel à l’invention de l’écosystème des applications, Apple a souvent imposé de nouvelles manières d’utiliser la technologie. Voici quelques-unes des innovations les plus marquantes de l’entreprise depuis un demi-siècle.
Au début des années 1970, l’idée qu’une personne ordinaire puisse posséder un ordinateur semblait absurde. À l’époque, les ordinateurs ressemblaient davantage à des porte-avions ou à des centrales nucléaires qu’à des appareils domestiques : d’immenses machines installées dans des centres de données, exploitées par des équipes de spécialistes au service de gouvernements, d'universités et de grandes entreprises.
Puis vint Apple.
Fondée le 1er avril 1976 par deux « décrocheurs universitaires », les fameux « college dropouts » Steve Jobs et Steve Wozniak, la start-up de la Silicon Valley n’a pas inventé l’informatique. Mais elle a sans doute accompli quelque chose de plus important : contribuer à transformer l’informatique en technologie personnelle.
Avant Apple, les ordinateurs étaient le plus souvent vendus sous forme de kits à assembler. Jobs a compris que les gens préféraient des machines déjà montées, prêtes à fonctionner. Les tout premiers Apple I, dotés de boîtiers en bois de koa fabriqués à la main, se vendent aujourd’hui aux enchères pour plusieurs centaines de milliers de dollars.
En tant qu’utilisateur précoce d’Apple et développeur d’applications, voici ma sélection personnelle des réalisations technologiques les plus marquantes de l’entreprise – et de Steve Jobs – au cours des 50 dernières années.
Les premiers ordinateurs personnels relevaient davantage de la curiosité que de l’outil réellement utile. L’Apple II, lancé en juin 1977, introduisit quelque chose de nouveau : le style. Même sa couleur – beige ! – était originale, contrastant avec les boîtiers métalliques noirs courants à l’époque.
L’affichage en couleurs était nouveau et enthousiasmant, et le clavier offrait une sensation agréable à l’usage. Un simple haut-parleur, doté d’une sortie d’un seul bit, était ingénieusement exploité pour produire des tonalités et même des sons ressemblant à la parole. Le design était révolutionné jusqu’à l’emballage : Jerry Manock, premier designer salarié d'Apple, installa la machine dans un boîtier en plastique moulé à l’allure élégante et professionnelle.
En 1979, Steve Jobs, alors âgé de 24 ans et convaincu que le géant technologique IBM était en train de rattraper Apple, se mit en quête de la prochaine grande innovation. L’entreprise de photocopieurs Xerox, qui souhaitait obtenir des actions Apple avant même son entrée en bourse, lui proposa en échange une visite de ses laboratoires de recherche voisins. Jobs comprit alors que des chercheurs du centre de recherche de Xerox à Palo Alto, comme Alan Kay, étaient en train d’inventer la prochaine génération d’interfaces informatiques.
Au cœur de cette révolution se trouvait un dispositif mis au point au milieu des années 1960 par le mentor d'Alan Kay, Douglas Engelbart, à l’université Stanford, et surnommé « la souris ». La vision de Douglas Engelbart, qui voyait l’ordinateur comme une machine destinée à augmenter les capacités de l’esprit humain, inspira Alan Kay et ses collègues, qui conçurent des interfaces graphiques dans lesquelles les utilisateurs interagissaient avec des barres de défilement, des boutons, des menus et des fenêtres.
Steve Jobs pensait que n’importe qui devait pouvoir utiliser un ordinateur. En janvier 1984, le premier Apple Mac poussa cette idée à un niveau inédit. Fini les commandes informatiques sibyllines et les manuels qui les accompagnaient. Les premiers utilisateurs, dont je faisais partie, avaient l’impression de savoir instinctivement comment tout faire.
Mais le lancement du Mac ne se résume pas à ce saut technologique. Il inspira aussi ce qui est devenu un moment culturel désormais ancré dans nos vies : le lancement de produit. Après une publicité aguicheuse diffusée lors du Super Bowl et réalisée par Ridley Scott, Steve Jobs mit en scène dans un théâtre de 1 500 places un lancement de produit centré sur un présentateur charismatique et seul en scène. Il sortit d’un sac un petit ordinateur carré – encore beige – alors appelé Macintosh, qui se mit à parler de lui-même sous les applaudissements enthousiastes de la salle.
Au cours de sa première décennie, Apple connut une croissance exceptionnelle – mais frôla aussi la faillite à plusieurs reprises. Des difficultés qui conduisirent l’entreprise à l’un des épisodes les plus spectaculaires de son histoire lorsque, en mai 1985, Apple força Jobs à quitter la société.
Un an plus tard, alors qu’il dirige la start-up NeXT Inc, Steve Jobs rachète une division de la société de production de George Lucas, qu’il rebaptise rapidement Pixar. Son logiciel RenderMan permettait de générer des images en répartissant les calculs entre plusieurs machines travaillant simultanément.
Pixar, souvent décrit avec humour comme le « projet parallèle » de Jobs, deviendra l’un des studios d’animation les plus influents – et les plus rentables – au monde, en produisant notamment le premier long métrage entièrement animé par ordinateur, Toy Story (1995).
Après une tentative infructueuse de développer un nouveau système d’exploitation avec IBM, Apple finit par racheter la société NeXT de Steve Jobs. En septembre 1997, celui-ci revient alors comme PDG par intérim alors que l’entreprise se trouve, selon ses propres mots, à « deux mois de la faillite ». Si ce retour est salué par de nombreux utilisateurs d’Apple, il inquiète une partie des salariés. Jobs commence en effet rapidement à licencier du personnel et à fermer les produits jugés défaillants.
Au cours de cette restructuration, il visite le studio de design d’Apple et s’entend immédiatement avec un jeune designer britannique, Jony Ive. De cette rencontre naît en 1998 l’iMac translucide aux couleurs acidulées. Essentiellement des machines NeXT plus petites et moins chères, les iMac (le « i » signifiant Internet) inaugurent aussi une autre innovation d’Apple, aujourd'hui devenue une habitude : abandonner les technologies vieillissantes. Le lecteur de disquettes est supprimé au profit d’un lecteur de CD – un choix très critiqué à l’époque, mais largement imité par la suite.
Pour Apple, l’informatique n’a jamais consisté uniquement à faire de l’informatique. En 2001, l’entreprise commence à s’intéresser au traitement du son et de la vidéo, et plus seulement du texte et des images. En novembre de la même année, elle lance l’iPod – un baladeur capable de stocker « 1 000 chansons dans votre poche », contre au maximum 20 à 30 par cassette sur un Walkman de Sony.
L’iPod se pilote grâce à une élégante « click wheel » permettant de naviguer à l’écran. La musique est synchronisée via une nouvelle application appelée iTunes. Dès 2005, les utilisateurs s’en servent aussi pour gérer des fichiers audio téléchargés automatiquement depuis Internet grâce à un système appelé RSS. C’est ce qui donnera le « pod » de podcast.
En 2007, de nombreux fabricants de téléphones mobiles avaient approché Apple pour fusionner l’iPod avec leurs appareils. Steve Jobs choisit une autre voie. Le 9 janvier, il dévoile le produit le plus ambitieux jamais lancé par Apple : un appareil combinant téléphone, lecteur de musique et ordinateur Mac – le tout au format d’un simple combiné, sans clavier physique et doté d’un large écran.
La plupart des « experts » des médias, de TechCrunch au Guardian, prédisaient un échec. Steve Ballmer, alors PDG de Microsoft, se moquait du prix de 500 dollars, affirmant que personne n’achèterait un tel appareil. En réalité, 1,4 million d’iPhone furent vendus avant même la fin de l’année – et plus de 3 milliards depuis. Pour la première fois, un véritable ordinateur se retrouvait dans toutes les mains – ouvrant la voie aux réseaux sociaux tels que nous les connaissons aujourd’hui.
À la mi-2008, l’iPhone offre à tous les développeurs la possibilité de créer une multitude vertigineuse de nouvelles applications. Dans le même temps, l’App Store – lancé le 10 juillet 2008 – résout l’un des problèmes les plus complexes : la distribution et la commercialisation de ces « apps ». Historiquement, les logiciels étaient souvent copiés et diffusés librement. L’App Store change la donne en utilisant un chiffrement robuste pour garantir que la copie achetée ne puisse être utilisée que par l’utilisateur concerné, réduisant ainsi le piratage.
En lançant le premier App Store au sens moderne du terme, Apple a transformé la manière dont les utilisateurs découvrent et achètent des logiciels. Cela déclenche une explosion du nombre d’applications et impose une idée simple mais puissante : quoi que vous souhaitiez faire, quelqu’un, quelque part, a déjà créé l’application pour le faire. Apple résume cette évolution dans un slogan devenu célèbre : « There’s an app for that » (« Il y a une application pour ça »).
À maintes reprises, cette entreprise hors norme a anticipé l’intérêt d’ouvrir l’informatique au plus grand nombre. Joyeux anniversaire, Apple !
Nick Dalton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.