LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

29.04.2026 à 09:31

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Mark Smith, Research Fellow in Collider Physics, Faculty of Natural Sciences, Imperial College London

Une anomalie observée dans la désintégration de mésons B pourrait être le premier signe d’une physique encore inconnue.
Texte intégral (1696 mots)
Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le grand collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au grand collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Masques à lumière rouge : que dit la science de leur efficacité ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech ». Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?
Texte intégral (1823 mots)

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech », portée par les influenceurs et rendue accessible au travers de dispositifs à domicile. Elle est associée à des effets séduisants tels que réduction des signes de l’âge, amélioration de l’acné ou encore accélération de la cicatrisation. Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?


Les dispositifs de thérapie à la lumière rouge destinés au grand public se présentent le plus souvent sous la forme de masques faciaux rigides ou souples, conçus pour épouser les contours du visage. Leur prix varie d’une centaine à environ mille euros. Ils intègrent un ensemble de diodes électroluminescentes (LED) disposées sur leur face interne, émettant une lumière visible rouge, parfois associée à du proche infrarouge. L’utilisateur porte ce masque pendant une durée déterminée (généralement quelques minutes), afin d’exposer uniformément la peau à cette lumière. D’autres formats existent également, tels que des panneaux lumineux ou des dispositifs portatifs ciblant des zones spécifiques du corps, mais le masque facial constitue aujourd’hui la forme la plus emblématique.

Cet intérêt croissant pour la thérapie à la lumière rouge repose sur plusieurs facteurs complémentaires. D’une part, les avancées technologiques ont permis la miniaturisation de systèmes LED, rendant possible leur utilisation hors des cabinets médicaux. Dans ces derniers, la lumière rouge est utilisée notamment en dermatologie, où elle est employée pour le traitement de l’acné, des plaies, des ulcères et des cicatrices. D’autre part, ces dispositifs sont souvent présentés comme des solutions non invasives, ce qui contribue à leur accessibilité et à leur adoption par le grand public. Enfin, les réseaux sociaux participent à leur visibilité, en diffusant des retours d’expérience et des contenus d’usage, qui s’ajoutent aux publications scientifiques et aux communications commerciales existantes.

Commençons par préciser ce que l’on appelle thérapie à la lumière rouge. Aussi appelée photobiomodulation, elle repose sur l’utilisation de longueurs d’onde spécifiques, généralement comprises entre 630 et 660 nm, parfois étendues au proche infrarouge (environ 800–900 nm). Ces longueurs d’onde peuvent pénétrer dans la peau jusqu’au derme sans provoquer d’échauffement significatif ou de dommages comparables aux UV.

Quels sont les effets biologiques de la photobiomodulation ?

Au niveau biologique, la photobiomodulation serait liée à plusieurs mécanismes cellulaires encore en cours d’étude. Le mécanisme principal évoqué dans les travaux repose sur une interaction avec les mitochondries (petites structures cellulaires qui produisent l’énergie – sous forme d’une molécule appelée adénosine triphosphate : ATP – à partir des nutriments et de l’oxygène), en particulier avec l’enzyme cytochrome c oxydase, un acteur clé de la chaîne respiratoire. Plusieurs travaux suggèrent que cette enzyme agit comme un chromophore capable d’absorber la lumière rouge, entraînant des modifications de son état redox (gain ou perte d’électrons) et une stimulation du métabolisme, notamment via une augmentation de la production d’ATP et l’activation de voies de signalisation intracellulaires.

Ces processus s’accompagnent de plusieurs effets biologiques principalement observés in vitro et dans des modèles animaux. Une augmentation de la production d’ATP a notamment été mesurée après exposition à ces longueurs d’onde. Par ailleurs, la lumière semble moduler le stress oxydatif, c’est-à-dire le déséquilibre entre la production de molécules réactives de l’oxygène et les systèmes de défense antioxydants de la cellule. Ce déséquilibre est susceptible d’endommager les lipides, protéines et l’ADN lorsqu’il est excessif, mais peut aussi jouer un rôle de signal biologique à faible niveau. Ce processus implique notamment une production contrôlée d’espèces réactives de l’oxygène (ROS) et de monoxyde d’azote, deux molécules impliquées dans les voies de signalisation cellulaire. Enfin, ces signaux biochimiques activent des cascades intracellulaires (kinases, facteurs de transcription) favorisant des processus de réparation et de régénération tissulaire.

Des effets modestes

Ces mécanismes restent encore débattus, notamment concernant le rôle exact du cytochrome c oxydase, dont l’implication directe n’est pas unanimement démontrée. Malgré ces incertitudes mécanistiques, la photobiomodulation a été largement étudiée sur le plan clinique, avec des résultats globalement positifs mais variables selon les indications.

Dans le cas du vieillissement cutané, plusieurs essais rapportent une légère amélioration des rides fines, de la texture et de l’élasticité de la peau après plusieurs semaines de traitement. Ces effets seraient liés à la stimulation des fibroblastes (cellules de base des tissus conjonctifs) et à l’augmentation de la production de collagène. Une revue souligne que les effets observés sont réels mais hétérogènes et encore mal standardisés.

Concernant la cicatrisation, les données suggèrent un potentiel effet, mais les preuves restent encore incomplètes et parfois contradictoires. La lumière rouge pourrait intervenir dans les différentes phases de la réparation tissulaire (inflammation, prolifération et remodelage) en stimulant l’activité de cellules clés comme les fibroblastes et les macrophages (cellules du système immunitaire). Elle favoriserait ainsi la production de collagène, la migration cellulaire et possiblement l’angiogenèse (formation de nouveaux vaisseaux sanguins à partir de vaisseaux existants), contribuant à la reconstruction du tissu lésé. Cependant, les données cliniques sont hétérogènes : certaines études montrent une accélération de la cicatrisation, tandis que d’autres ne retrouvent pas d’effet significatif.

Enfin, dans le traitement de l’acné, la lumière rouge agit principalement par des effets anti-inflammatoires et une modulation de l’activité des glandes sébacées (situées dans la peau et impliquées dans la synthèse et sécrétion du sébum). Les études rapportent une diminution des lésions inflammatoires et des rougeurs, avec des résultats globalement modérés et variables selon les protocoles. Elle est souvent plus efficace lorsqu’elle est combinée à d’autres thérapies lumineuses.

Un niveau de preuve limité

Malgré des résultats encourageants dans plusieurs domaines, la photobiomodulation reste une discipline en développement, dont le niveau de preuve est limité par plusieurs facteurs méthodologiques. De nombreuses études reposent sur des effectifs réduits, ce qui limite la robustesse statistique et la généralisation des résultats. Par ailleurs, l’hétérogénéité des protocoles expérimentaux (durée d’exposition, intensité lumineuse, fréquence des traitements) complique la comparaison entre études et peut expliquer certaines divergences observées.

Ces limites méthodologiques contrastent avec la diffusion rapide de dispositifs grand public (masques LED, panneaux, appareils portatifs), aux performances variables et peu standardisées. L’écart entre les conditions expérimentales (paramètres contrôlés, doses précises, suivi médical) et l’usage domestique peut conduire à une surestimation des effets, parfois amplifiée par des discours commerciaux optimistes.

En résumé, la photobiomodulation repose sur des mécanismes biologiques plausibles et des résultats expérimentaux et cliniques encore partiellement concordants. Le niveau de preuve reste à ce jour modéré, en raison notamment du nombre limité d’essais randomisés contrôlés de grande ampleur et de l’hétérogénéité des protocoles. Les données disponibles suggèrent des effets potentiels dans plusieurs indications dermatologiques, mais leur amplitude et leur reproductibilité varient selon les conditions d’utilisation. Cette technologie s’inscrit ainsi dans un champ de recherche en structuration, nécessitant des études complémentaires standardisées afin de préciser ses indications et ses paramètres optimaux.

Dans ce contexte, des effets indésirables restent rares mais possibles, principalement sous forme d’irritations cutanées transitoires ou d’inconfort oculaire en cas de mauvaise utilisation. Les données actuelles ne mettent pas en évidence de toxicité majeure aux paramètres utilisés en photobiomodulation, mais les effets d’un usage prolongé ou non encadré restent encore insuffisamment documentés. Certaines situations peuvent également nécessiter des précautions particulières, notamment chez les personnes présentant une sensibilité accrue à la lumière ou des pathologies dermatologiques spécifiques.

L’utilisation de dispositifs commerciaux de lumière rouge doit donc être envisagée avec prudence, en particulier en dehors d’un cadre médical. Il est recommandé de solliciter un avis médical ou dermatologique en cas d’usage à visée thérapeutique. Par ailleurs, les dispositifs disponibles sur le marché présentent une qualité variable : il convient de vérifier des paramètres tels que la longueur d’onde (généralement 630–660 nm pour le rouge), la puissance d’émission, ainsi que la présence de certifications de sécurité.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ?

Véronique Sadtler, Professeure, Université de Lorraine

Les formulations actuelles de lessive mobilisent souvent plus de 30 ingrédients, pourtant certaines marques proposent une liste plus réduite. Peut-on simplifier sans perdre en efficacité ?
Texte intégral (1884 mots)
Ce qu’il se passe à l’intérieur d’une machine à laver est bien plus complexe que ce que vous imaginez. Manon Lincésur/Unsplash, CC BY

Vous lancez une machine, versez une dose de lessive et attendez un linge propre : taches éliminées, fibres et couleurs préservées, même à basse température. Derrière ce geste quotidien se cache une chimie sophistiquée. Les formulations actuelles mobilisent souvent plus de 30 ingrédients, chacun jouant un rôle précis. Pourtant, on voit apparaître des lessives mettant en avant des listes plus courtes, parfois réduites à moins de 10 composants, portées par une demande de transparence et de moindre impact environnemental. Mais peut-on vraiment simplifier sans perdre en efficacité ?


Une lessive ne se contente pas de nettoyer. Elle doit simultanément décoller les salissures, préserver les tissus et fonctionner dans des eaux de qualité variable. Pour y parvenir, chaque ingrédient remplit un rôle précis. Les tensioactifs forment la colonne vertébrale de la formulation. Leur structure amphiphile – une tête hydrophile avec affinité pour l’eau et une chaîne hydrophobe attirant les graisses – leur permet de s’intercaler entre les salissures et les fibres, de les décoller et de les maintenir en suspension dans le bain de lavage.

Les enzymes complètent cette action en ciblant des taches spécifiques : les protéases décomposent les taches protéiniques (sang, œuf), les amylases s’attaquent aux amidons (sauces, pâtes, riz), tandis que les lipases hydrolysent graisses et huiles. Leur efficacité à basse température explique en grande partie pourquoi les lessives modernes peuvent nettoyer sans chauffer fortement l’eau. D’autres ingrédients assurent des fonctions complémentaires, comme l’efficacité du lavage en eau dure (une eau riche en ions calcium et magnésium, une eau calcaire), la stabilité de la formulation ou la limitation de la redéposition des salissures sur les fibres.

Cette complexité s’est construite au fil des décennies pour répondre à des exigences toujours plus élevées. Certaines fonctions restent difficiles à concilier : améliorer la blancheur peut altérer les couleurs vives, tandis que renforcer l’efficacité à basse température exige souvent des systèmes enzymatiques plus élaborés. Notons que la réglementation européenne n’impose pas l’affichage de la liste complète des ingrédients sur l’emballage, mais seulement des classes de composants avec des fourchettes de pourcentages. Obtenir la liste exhaustive reste souvent complexe pour le consommateur. Si la liste détaillée est théoriquement accessible en ligne, elle est en pratique plus ou moins facile à consulter, parfois dispersée dans des documents techniques.

Les deux moteurs de la simplification

Les formulations tendent aujourd’hui à se raccourcir sous l’effet de deux dynamiques. La première est réglementaire. Ainsi, les phosphates, autrefois largement utilisés comme agents séquestrants, ont été fortement limités puis pratiquement éliminés des lessives ménagères en Europe depuis 2013. Rejetés dans les eaux usées après le lavage, les phosphates contribuent à l’eutrophisation des milieux aquatiques, c’est-à-dire à un enrichissement excessif en nutriments. Ils favorisent ainsi la prolifération d’algues, qui appauvrit l’eau en oxygène et peut entraîner une perte de biodiversité.

La seconde dynamique est sociétale. Une demande croissante de transparence et de réduction de l’empreinte environnementale pousse les fabricants à proposer des formules plus courtes. Azurants optiques, qui donnent une impression de blancheur plus éclatante sans agir directement sur le nettoyage, parfums, conservateurs, remplissent des fonctions réelles, mais sont de plus en plus contestés pour leurs effets allergènes potentiels ou leur persistance dans l’environnement. Certains labels, comme l’Écolabel européen, vont au-delà de la réglementation en les excluant ou en les limitant strictement, privilégiant certains critères écologiques au détriment d’autres performances.

Simplifier, c’est arbitrer

Réduire le nombre d’ingrédients ne consiste pas à supprimer des composants sans conséquence. Il s’agit de recomposer un nouvel équilibre entre contraintes souvent contradictoires.

Le cercle de Sinner, cadre classique en chimie du lavage, illustre ces arbitrages. Il repose sur quatre paramètres interdépendants : action chimique, température de l’eau, temps de contact et action mécanique. Pour obtenir un niveau de propreté donné, ces facteurs se compensent : réduire l’un impose d’en renforcer un autre.

C’est exactement la logique des programmes « éco » des machines à laver : en abaissant la température à 30 ou 40 °C au lieu de 60 °C, ils allongent la durée du cycle. Si cette baisse de température permet de réduire la consommation d’énergie, elle peut rendre aussi le lavage moins efficace, ce qui nécessite des formulations souvent plus sophistiquées, capables d’agir à froid. Le lavage à basse température ne simplifie donc pas nécessairement les formules, et peut au contraire conduire à les complexifier.

Du bidon à la dosette : la complexité change de forme

L’évolution des formats de lessive illustre la manière dont la complexité est parfois redistribuée plutôt qu’éliminée. Les lessives liquides, aujourd’hui dominantes, sont pratiques et efficaces à basse température, mais transportent une part importante d’eau, souvent plus de la moitié de la formulation et nécessitent des conservateurs. Les formats concentrés ou solides visent à réduire l’emballage et l’impact du transport, mais nécessitent un dosage plus précis de la part du consommateur.

Dans ce contexte, le volume du flacon n’est pas toujours un bon indicateur : les fabricants indiquent généralement sur l’emballage le nombre de lavages, qui reflète mieux la concentration et facilite la comparaison entre produits.

Le surdosage reste fréquent : par habitude ou par crainte d’un résultat insuffisant, beaucoup de consommateurs versent plus que la dose recommandée. Au-delà d’un certain seuil, les tensioactifs supplémentaires n’améliorent plus le nettoyage ; ils sont simplement rejetés dans les eaux usées, augmentant inutilement la charge environnementale.

Les dosettes multi-compartiments offrent une autre réponse élégante : en séparant physiquement des ingrédients incompatibles (certaines enzymes et agents oxydants qui se neutraliseraient dans un mélange unique), elles préservent l’efficacité de chacun jusqu’au moment du lavage, tout en imposant une dose prédéfinie qui limite mécaniquement le surdosage. La complexité chimique n’a pas disparu ; elle a simplement été intégrée dans l’architecture du produit.

Performance maximale ou performance suffisante ?

Le véritable enjeu réside ici. Les lessives classiques sont conçues selon une logique de performance maximale : elles doivent venir à bout des situations les plus exigeantes – taches tenaces, eau très calcaire, textiles délicats – même si ces cas restent minoritaires dans la vie quotidienne.

Pourtant, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) le rappelle : la très grande majorité du linge porté n’est que peu ou modérément sale, et il est recommandé d’espacer les lavages. Viser systématiquement la performance maximale revient à surdimensionner la formulation pour des usages qui ne le justifient pas. Dans la pratique, pour le linge du quotidien, des doses modérées et des cycles à basse température sont généralement suffisants. À l’inverse, pour des taches plus tenaces – vêtements de sport ou de travail –, il peut être plus pertinent d’avoir recours à des détachants ciblés plutôt que d’augmenter systématiquement les doses de lessive.

Adapter les formulations aux usages majoritaires implique donc de passer d’une approche universelle à une logique de performance suffisante, c’est-à-dire une efficacité adaptée à la grande majorité des lavages quotidiens. Ce n’est pas une régression technique, mais un choix de conception assumé qui rend enfin visibles les arbitrages. Les lessives pour linge blanc (avec agents de blanchiment et azurants optiques) et celles pour linge foncé (sans ces composants pour préserver les couleurs) en sont l’illustration parfaite : on ne peut pas optimiser simultanément ces deux objectifs.

Enfin, le prix joue un rôle important. Les lessives revendiquant une formulation plus simple ou un impact réduit sont souvent plus chères à l’achat que les produits classiques, en raison du coût plus élevé des ingrédients alternatifs d’origine végétale ou biodégradable, des volumes de production généralement plus faibles et des certifications spécifiques. Toutefois, ce surcoût à l’achat ne se traduit pas nécessairement par un coût plus élevé à l’usage. Grâce à une concentration souvent supérieure et à un dosage plus précis, le prix par lavage peut s’approcher, voire s’aligner sur celui des lessives classiques, notamment avec les marques de distributeurs écologiques qui offrent aujourd’hui un excellent rapport qualité-prix.

Au fond, la simplification ne change pas seulement les formules, elle interroge aussi nos habitudes d’usage. Et c’est peut-être là son véritable apport : non pas viser une performance maximale en toutes circonstances, mais ajuster le niveau de performance réellement nécessaire selon les situations.

The Conversation

Véronique Sadtler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:51

Comment se forment les gouttes de pluie ?

Auguste Gires, Ingénieur en chef des Eaux, Ponts et Forêts, chercheur au laboratoire Hydrology, Meteorology and Complexity (HM&Co), École Nationale des Ponts et Chaussées (ENPC)

Eleonora Dallan, Ingénieure en environnement et enseignante-chercheuse au département TESAF (Terre, Environnement, Agriculture et Forêts), University of Padua

La pluie est un phénomène très courant, mais finalement peu connu. Extrait d’un ouvrage récent pour commencer à mieux la connaître.
Texte intégral (1383 mots)
Au point de rosée, l’air devient saturé en humidité et les gouttes condensent. Daoud Abismail/Unsplash, CC BY

Dans leur ouvrage Balade sous la pluie, paru en 2025 aux Presses des Ponts, Auguste Gires, ingénieur en chef du corps des Ponts, eaux et forêts, et chercheur au laboratoire Hydrologie, météorologie et complexité de l’École nationale des ponts et chaussées, et Eleonora Dallan, ingénieure en environnement et chercheuse au département Terre, environnement, agriculture et forêts, de l’Université de Padoue en Italie, nous emmènent en promenade pour découvrir un phénomène très courant, mais finalement peu connu : la pluie.

Pour la quatrième « escale » de ce livre-promenade, ils nous expliquent comment se forment physiquement les gouttes de pluie dans les nuages. Extrait.


N’est-il pas surprenant que tous ces cumulus (nuages cotonneux de basse altitude) semblent se former à la même altitude ? En réalité, cela est lié à la façon dont les nuages, et plus largement les précipitations, sont générés. Sur Terre, les conditions de température et de pression permettent à l’eau d’exister naturellement dans trois états : liquide (comme dans les océans, les rivières, ou l’eau du robinet), solide (tel que la glace, la neige, la grêle, la pluie verglaçante), et gazeuse, dans l’air sous forme de vapeur invisible. Les interactions entre ces trois états sont, entre autres, à l’origine de la pluie.

Les noms des nuages

    La plupart des noms de nuages comportent des racines et qualificatifs latins, dont l’association donne une indication sur le type de nuage désigné, notamment :
  • STRATUS/STRATO : étendu, couche, continu ;
  • CUMULUS/CUMULO : amas, moutonneux ;
  • CIRRUS/CIRRO : filament, fin ;
  • NIMBUS/NIMBO : porteur de pluie.
  • ALTO : moyen (même si altus en latin signifie « haut ») Par exemple, un altocumulus, est un nuage moutonneux de moyenne altitude.

Tout commence par l’évaporation, c’est-à-dire qu’une partie de l’eau liquide présente à la surface de la Terre s’évapore sous l’action du soleil. La vapeur d’eau se mélange à l’air ambiant près de la surface. Cet air, réchauffé par le soleil, devient plus chaud que celui du dessus. Sa masse volumique devient plus faible que celle de l’air qui l’entoure (on dit qu’il est plus léger dans le langage courant), ce qui facilite sa montée. En effet, les molécules qu’il contient bougent plus vite sous l’effet de la chaleur et occupent alors plus de place, tout en gardant la même masse.

En raison de la baisse de la température avec l’altitude, généralement d’environ 6,5 °C tous les 1 000 mètres, l’air initialement chaud se refroidit progressivement en montant. Il s’avère que la quantité de vapeur d’eau que l’air peut contenir diminue avec sa température (environ 7 % par degré). Dans un air plus froid, les molécules sont plus proches les unes des autres, ce qui réduit l’espace disponible pour d’autres molécules de gaz comme la vapeur d’eau. C’est la relation de Clausius-Clapeyron.

Ainsi, à une altitude donnée, qui dépend de la température et de la quantité initiale de vapeur d’eau, l’air devient saturé et ne peut plus contenir autant de vapeur d’eau qu’au moment de l’évaporation, quand l’air était encore proche de la surface. Les spécialistes appellent cela le point de rosée. Une partie de l’eau se condense et retrouve sa forme liquide d’origine. La formation de ces gouttelettes de nuages se fait généralement autour de noyaux de condensation, comme une poussière, de la glace ou du sel. Elles sont beaucoup plus petites que les gouttes de pluie dont nous avons parlé précédemment, avec une taille proche de 0,02 millimètre. Ces gouttelettes sont si petites que les turbulences de l’air ambiant sont suffisamment fortes pour les maintenir en suspension dans l’air, les empêchant de tomber au sol. Cette concentration de gouttelettes dans l’air forme un nuage. Le processus peut également se produire à température négative, et dans ce cas, le nuage est constitué de petits cristaux de glace.

D’une certaine manière, vous êtes tous témoins de la formation de nuages au quotidien. Profitons justement des températures hivernales. Inspirez, expirez… Vous remarquerez qu’une sorte de petit nuage se forme en expirant. Oui, il s’agit bien d’un petit nuage ! L’air qui sort de vos poumons, chaud et humide, rencontre de l’air plus frais dans l’atmosphère extérieure. Une partie de la vapeur d’eau qu’il contient se condense et forme des gouttelettes.

Le même phénomène est à l’œuvre lorsque vous faites bouillir de l’eau. Juste au-dessus de l’eau chaude dans la casserole, l’air est très chaud et contient beaucoup de vapeur d’eau. En remontant, il rencontre de l’air plus frais et une partie de l’eau se condense en gouttelettes. Ce que vous voyez n’est donc certainement pas de la vapeur d’eau, qui est invisible, mais bien un petit nuage.

La quantité d’eau liquide contenue dans les nuages, soit la teneur en eau liquide, varie fortement en fonction du type de nuages. Elle est exprimée en masse d’eau liquide par unité de volume d’air, en gramme par mètre cube (g/m3). Elle présente une très grande variabilité d’un nuage à l’autre, voire au sein d’un même nuage. Les ordres de grandeur peuvent aller de 0,06 g/m3 pour des nuages non précipitants comme les cirrus, des nuages de haute altitude, à 0,4 g/m3 pour des nuages engendrant des pluies, tels que les stratocumulus,** **qui sont à plus basse altitude. Les valeurs sont plus élevées pour les cumulonimbus, dont il sera question lors de la prochaine escale.

Qu’en est-il de la pluie ? Pour qu’elle se forme, il faut que les gouttelettes contenues dans les nuages grossissent de façon à être suffisamment lourdes pour tomber. Cela se produit principalement grâce à deux processus.

Le premier, le processus Wegener-Bergeron-Findeisen, implique la croissance de cristaux de glace dans des nuages en phase mixte. Ces nuages, caractérisés par des températures négatives, contiennent simultanément de l’eau dans ses trois états : de la glace, de l’eau surfondue (de l’eau en dessous de 0 °C, mais pas encore solidifiée) et de la vapeur d’eau. Dans cet environnement sous-saturé en eau liquide, celle-ci s’évapore rapidement, tandis que la vapeur d’eau se dépose tout aussi vite dans les cristaux de glace, entraînant une croissance soudaine de ces derniers. Le deuxième est la coalescence. Dans les nuages contenant assez de gouttelettes, certaines d’entre elles entrent en collision au cours de leur mouvement, fusionnent et grossissent progressivement.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.04.2026 à 15:54

L’oxygène, cette molécule paradoxale, base de la vie et poison mortel : comment les microorganismes y font face

Alexandre Desparmet, Doctorant en Biologie Marine, Muséum national d’histoire naturelle (MNHN)

Cédric Hubas, Professor, Muséum national d’histoire naturelle (MNHN)

Comment bénéficier de l’oxygène sans en subir les dangers ? Une nouvelle étude éclaire ces processus chez des microalgues.
Texte intégral (2291 mots)

Les humains ainsi que bon nombre d’espèces vivantes ont besoin d’oxygène pour vivre. Pourtant cette molécule est chimiquement dangereuse, elle provoque ce que l’on appelle le « stress oxydant » (une altération des constituants de nos cellules comme les protéines ou l’ADN). Il faut donc pouvoir l’utiliser, mais également s’en protéger. Une nouvelle étude éclaire ces processus chez des microalgues.


La relation entre la vie et l’oxygène est loin d’être simple. Pour la comprendre, il faut remonter aux origines de la vie sur Terre, à l’époque archéenne (entre -4 milliards et -2,5 milliards d’années). Les océans existaient déjà, mais l’atmosphère contenait très peu, voire pas du tout, d’oxygène libre.

Certaines bactéries réalisaient déjà une photosynthèse dite anoxygénique qui, contrairement à celle des plantes et des algues actuelles, ne libère pas d’oxygène mais produit des composés soufrés.

Il y a environ 2,4 milliards d’années survient un tournant majeur : la Grande Oxygénation. L’oxygène commence à s’accumuler dans l’atmosphère grâce à l’activité de bactéries photosynthétiques (les cyanobactéries) capables de réaliser la photosynthèse oxygénique, le même processus que celui utilisé aujourd’hui par les plantes et les algues.

Cette accumulation d’oxygène transforme profondément la biosphère. Pour la première fois, une molécule extrêmement réactive est produite en grande quantité par des organismes vivants. L’oxygène peut oxyder et endommager les structures cellulaires des organismes qui n’y sont pas adaptés. La vie se trouve alors confrontée à un paradoxe : devoir composer avec une molécule qu’elle produit elle-même mais qui représente un danger pour la majorité des formes de vie existantes.

Cette transition provoque une crise biologique majeure. De nombreuses espèces anaérobies sont repoussées vers des milieux pauvres en oxygène, comme les sédiments ou les profondeurs marines. Parallèlement, certaines lignées développent des mécanismes capables de neutraliser l’oxygène, puis de l’utiliser comme source d’énergie. La respiration oxygénique, bien plus efficace que les métabolismes anaérobies, permet ainsi l’émergence de formes de vie plus complexes.

Illustration des changements observés dans une colonne de Winogradsky installée à la station marine de Concarneau (Finistère). La colonne a été réalisée à partir de vase prélevée dans les viviers de la station. Les deux tiers de la colonne ont été remplis de vase, et le dernier tiers d’eau de mer provenant du site. Du carbone a été ajouté au fond de la colonne sous forme de petits morceaux de papier. L’objectif du projet est d’illustrer l’incroyable diversité des microorganismes et de proposer un parallèle entre les changements observés dans la colonne et certaines étapes de l’histoire évolutive de la vie sur Terre. Cédric Hubas, CC BY

Le paradoxe de l’oxygène

Bien que souvent associé à la vie, l’oxygène demeure chimiquement dangereux et peut provoquer ce que l’on appelle le stress oxydant. En effet, le dioxygène peut générer des espèces réactives de l’oxygène (ERO) – superoxyde, peroxyde d’hydrogène ou radical hydroxyle – capables d’endommager protéines, lipides et ADN.

Tous les organismes aérobies (y compris les humains) possèdent donc des systèmes enzymatiques permettant de neutraliser ces molécules : superoxyde dismutases, catalases ou peroxydases. Sans ces mécanismes de défense, l’oxygène serait rapidement létal. La vie moderne repose ainsi sur un équilibre délicat : utiliser l’oxygène pour produire de l’énergie tout en limitant ses effets toxiques.

Longtemps considérées uniquement comme des sous-produits nocifs impliqués dans le vieillissement ou certaines maladies, les ERO sont aujourd’hui reconnues comme des molécules de signalisation participant à la régulation de nombreux processus cellulaires (prolifération cellulaire ou régulation de certains gènes par exemple). Leur rôle exact reste cependant encore largement inexploré.

Le stress oxydant dans les environnements naturels

Le stress oxydant ne concerne pas seulement les organismes humains : il affecte l’ensemble du vivant. Il apparaît lorsque la production d’ERO dépasse les capacités de défense de la cellule. Ce phénomène est particulièrement marqué dans des environnements soumis à de fortes variations de conditions physiques ou chimiques.

Ces milieux extrêmes comme la mer morte, le désert du Sahara ou certains déserts d’altitude recevant un fort rayonnement solaire, possèdent des conditions très salées, très sèches ou fortement irradiées, mais abritent pourtant une biodiversité étonnante. Des organismes spécialisés, appelés extrêmophiles, y prospèrent grâce à des adaptations physiologiques remarquables. La notion d’environnement extrême dépend donc toujours de l’organisme considéré.

Même des milieux plus familiers peuvent imposer des contraintes importantes. Nos zones côtières, par exemple, connaissent des fluctuations rapides de lumière. L’intensité lumineuse y varie fortement au cours de la journée, ce qui influence directement l’activité photosynthétique.

Les organismes photosynthétiques sont particulièrement exposés à ce problème, car la capture d’énergie lumineuse favorise la formation d’espèces réactives de l’oxygène. Ainsi, si la lumière est indispensable à la photosynthèse, un excès d’énergie lumineuse peut perturber l’équilibre cellulaire et favoriser la formation d’ERO. Les organismes doivent donc exploiter la lumière tout en se protégeant de ses effets potentiellement toxiques.

Les adaptations des microalgues aux variations journalières de lumière

Les diatomées, microalgues très abondantes dans les sédiments marins, ont développé plusieurs stratégies pour faire face à ces variations lumineuses. Des pigments protecteurs, notamment les xanthophylles, limitent la formation de radicaux libres. Les cellules peuvent également modifier l’organisation de leur appareil photosynthétique afin d’optimiser la capture de lumière tout en réduisant les dommages.

Ces microalgues possèdent aussi des photorécepteurs capables de détecter les variations lumineuses et de déclencher des réponses physiologiques rapides, comme l’activation de mécanismes de photoprotection ou l’expression de certains gènes.

L’une de leurs adaptations les plus remarquables est leur migration verticale dans le sédiment. Lorsque la lumière est modérée, les diatomées remontent vers la surface afin de maximiser la photosynthèse. Lorsque l’intensité devient trop forte, elles s’enfoncent légèrement dans le sédiment, comme pour se mettre à l’ombre. Ces déplacements sont synchronisés par une horloge circadienne interne qui permet d’anticiper les cycles jour-nuit.

ERO et diatomées : un dialogue plus complexe qu’on ne le croyait

Des travaux récents suggèrent que les espèces réactives de l’oxygène pourraient jouer un rôle plus actif qu’on ne le pensait. Au-delà de leur caractère potentiellement toxique, elles pourraient agir comme signaux déclenchant certaines réponses comportementales.

Notre dernière étude montre que les ERO participent notamment au contrôle de la migration verticale des diatomées, alors que l’on pensait jusqu’à présent que ces migrations servaient principalement à limiter leur production et leur accumulation au niveau cellulaire.

Deux mécanismes semblent donc se combiner : la migration permet de réduire l’exposition à des conditions génératrices d’ERO, mais ces mêmes molécules pourraient également agir comme signaux déclenchant la réponse lorsque leur concentration dépasse un certain seuil.

Ce système fonctionnerait ainsi comme un véritable dispositif de surveillance interne. Les variations du stress oxydant reflètent rapidement les changements de l’environnement et permettent aux cellules d’ajuster leurs réponses physiologiques et comportementales.

Les diatomées étant très diversifiées et largement distribuées à l’échelle globale, il est probable que ces capacités de détection, de traitement de l’information et de mise en place de réponses varient selon les espèces et le contexte environnemental. Cette diversité confère aux diatomées une forte capacité d’adaptation, jouant un rôle essentiel dans leur survie.

Photographie de diatomées (Pleurosigma strigosum) au microscope optique. Alexandre Desparmet, Fourni par l'auteur

Ce travail montre, à travers un exemple frappant, que le vivant n’a pas seulement appris à se défendre contre l’oxygène et ses dérivés toxiques : il a aussi appris à les utiliser. Des déchets métaboliques oxygénés, autrefois considérés comme uniquement dangereux pour les cellules, peuvent devenir de véritables outils biologiques.

Cela rappelle que le rôle des ERO reste complexe et encore largement méconnu. Loin d’être de simples agents de stress, elles apparaissent aujourd’hui comme des molécules ambivalentes : des messagers subtils intégrés à des mécanismes fins de communication, d’adaptation cellulaire et de perception de l’environnement, notamment chez les diatomées.

Et comme souvent en sciences, ces découvertes ouvrent surtout de nouvelles questions… qui restent encore à explorer.


Nous remercions l’école doctorale DIVONA, la station marine de Concarneau (Finistère) et le laboratoire BOREA.

The Conversation

Alexandre Desparmet a reçu des financements de l'institut de l'Océan de l'Alliance Sorbonne Université.

Cédric Hubas a reçu des financements de l'institut de l'Océan de l'Alliance Sorbonne Université.

PDF

26.04.2026 à 09:15

Ce que les créatures des abysses voient dans le noir

Juliette Ravaux, Maître de conférences, Sorbonne Université

Sébastien Duperron, Professeur d'écotoxicologie microbienne, Muséum national d’histoire naturelle (MNHN)

Les espèces des profondeurs ne voient pas les choses de la même façon que nous.
Texte intégral (1699 mots)
Lorsque l’on descend en profondeur au-delà de la zone éclairée par le soleil, la palette de couleurs se fait plus restreinte, le rouge et le noir dominent. (Sur ces clichés, les méduses des profondeurs _Pandea rubra_, _Atolla wyvillei_ et _Crossota norvegica_.) NOAA/Wikipédia, CC BY

Dans l’ouvrage Secrets de l’océan profond, tout juste publié aux éditions Quae, Juliette Ravaux, maîtresse de conférences à Sorbonne Université en biologie animale, et Sébastien Duperron, professeur au Muséum national d’histoire naturelle et spécialiste d’écologie microbienne, nous font découvrir des espèces animales mystérieuses et des ressources mal connues de l’océan profond. Leur but est de mieux comprendre ce bien commun, pour mieux le préserver. Dans cet extrait, ces spécialistes nous donnent à voir ce que perçoivent les curieuses espèces vivant dans les abysses, qu’ils ont tous deux pu observer lors de leurs plongées à bord du Nautile, sous-marin de la flotte scientifique à la fois unique… et exigu.


La vie dans l’océan profond s’accompagne d’un panel de contraintes environnementales, parmi lesquelles l’absence de lumière solaire et la rareté de la nourriture. À elles seules, ces deux conditions affectent des fonctions essentielles des organismes telles que l’orientation dans leur environnement à la recherche de nourriture ou de partenaires, mais aussi le métabolisme, la croissance et la reproduction. En conséquence, les espèces des profondeurs possèdent une vaste diversité d’adaptations dont certaines sont présentées ici, mais dont beaucoup restent encore à découvrir !

Descendons sur la dorsale de l’océan Atlantique, à plus de 2 000 mètres de fond, au plus près des fumeurs noirs qui crachent un fluide brûlant. Là, sur les parois des cheminées hydrothermales, des crevettes se rassemblent par milliers en nuées grouillantes. Ce sont des crevettes aveugles, Rimicaris exoculata, une espèce emblématique de ces environnements atlantiques. Les adultes ne possèdent pas les yeux pédonculés typiques des crevettes, ce qui leur vaut ce surnom. Et pourtant, elles possèdent bien des yeux, difficilement reconnaissables car ils sont très modifiés : ce sont des plaques rosées en forme de V qui se situent sur leur dos. Ces plaques ne leur permettent pas de voir leur environnement sous forme d’une image comme le font nos yeux.

Mais elles sont très sensibles à la lumière et détectent des sources lumineuses de très faible intensité, invisibles pour l’œil humain. Elles sont constituées d’une couche très épaisse de cellules photoréceptrices, sous laquelle se trouve une couche réfléchissante de cellules blanches qui renvoie la lumière vers les photorécepteurs, augmentant ainsi la quantité de lumière perçue.

Grâce à ces capteurs hypersensibles, les crevettes Rimicaris sont donc spécialisées dans la détection de lumière ténue. Reste encore à déterminer quels signaux lumineux elles perçoivent dans leur environnement parmi les sources potentielles, comme celle émise par le fluide hydrothermal sous forme de rayonnement thermique.

Les animaux bioluminescents, ou pourquoi il ne fait pas totalement noir dans les abysses

À l’instar de Rimicaris, les espèces abyssales évoluent dans des environnements obscurs dépourvus de lumière solaire. Il existe cependant une autre source lumineuse majeure : la bioluminescence. Plus faible que la lumière solaire, elle n’est apparente que la nuit dans les eaux de surface, mais elle est nettement visible en profondeur grâce au contraste avec le fond noir. Cette lumière émise par les organismes révèle la présence de partenaires, de prédateurs, de sources de nourriture, et peut aussi servir de défense, de leurre ou de camouflage. Dans la zone crépusculaire, diverses espèces arborent ainsi un ventre bioluminescent qui les rend moins visibles aux prédateurs et aux proies situés en dessous. Cette contre-illumination leur permet en effet de se fondre dans la faible luminosité provenant de la surface.

Au-delà de 1 000 mètres, la bioluminescence constitue la principale, sinon la seule, source de lumière. Elle apparaît de façon intermittente sous forme d’éclairs lumineux, le plus souvent de couleur bleue ou verte, qui durent quelques dixièmes de secondes à quelques secondes. Des observations menées au large de New York dans les années 1950 rapportent des fréquences de signaux bioluminescents allant jusqu’à 94 éclairs par minute dans le champ de vision du photomètre pour des profondeurs au-delà de 1 000 mètres. Dans les années 2000, un inventaire de la faune au large de la côte californienne, de la surface jusqu’à 3 900 mètres de profondeur, a révélé que plus de trois quarts des individus de la colonne d’eau émettent de la lumière. Les océans crépitent d’un feu d’artifice silencieux et le paysage lumineux des profondeurs se présente comme un fond noir piqueté d’étincelles bleutées.

Les yeux adaptés aux paysages obscurs

Dans ces paysages obscurs, les animaux sont-ils aveugles ? Les yeux des poissons téléostéens peuplant les profondeurs sont souvent décrits comme étant « régressés » ou « dégénérés ». Pourtant, ces yeux existent bel et bien et les poissons des profondeurs ne sont généralement pas aveugles, bien au contraire. Les yeux des poissons bathypélagiques présentent une grande variété de morphologies : ils sont parfois clairement régressé avec une rétine absente ou défectueuse, comme chez les « poissons-baleines » du genre Cetomimus, ou au contraire très grands et développés, comme ceux de l’alépocéphale à bec (Alepocephalus rostratus).

Dans l’ensemble, à quelques exceptions près, les yeux des espèces bathypélagiques ont toutefois tendance à être plus petits (par rapport à la taille du corps) que ceux de leurs cousins de la zone mésopélagique. Ils sont néanmoins parfaitement fonctionnels et particulièrement efficaces pour détecter des éclairs de bioluminescence ponctuels, grâce à deux caractéristiques notables : une large pupille et une rétine riche en photorécepteurs très sensibles à la lumière. Le record est actuellement détenu par la dirette argentée, une espèce abyssale qui possède un nombre exceptionnel de pigments responsables de la détection de faible luminosité, les rhodopsines. Alors que l’humain ne possède qu’un seul exemplaire de rhodopsine, la dirette en possède 38 ! Chacune de ces rhodopsines serait capable de détecter une couleur dans la gamme des bleus et des verts. Cet exceptionnel répertoire de pigments permet donc à la dirette de distinguer davantage de nuances de lumière bleue et de lumière verte que l’être humain, ce qui s’avère très utile pour identifier différentes sources de bioluminescence, et ainsi distinguer les prédateurs et les proies.

Comme la dirette, la majorité des poissons des grands fonds possède une vision limitée aux longueurs d’onde bleues et vertes. Ils ne peuvent percevoir les autres couleurs, et sont de ce fait daltoniens ! Les poissons bathypélagiques seraient en théorie capables de voir un flash bioluminescent à une distance pouvant aller jusqu’à 100 mètres dans une eau limpide. Cependant, cette distance est en réalité inatteignable pour la plupart des poissons pélagiques, qui n’ont pas l’énergie suffisante pour nager jusqu’à une source lumineuse à une telle distance en un laps de temps court. Ainsi, même si les poissons des profondeurs peuvent voir des éclairs lointains, ils ne réagissent probablement qu’à ceux produits à une distance plus proche.

Tout comme les poissons bathypélagiques, les crustacés de ces profondeurs présentent une grande variété de morphologie des yeux. Là encore, on retrouve des exemples d’yeux particulièrement sensibles à la lumière et adaptés à la détection de la bioluminescence. Le record revient probablement aux grands yeux de l’ostracode Gigantocypris muelleri, qui possèdent des réflecteurs qui ressemblent à des phares de voiture et des photorécepteurs géants qui lui confèrent une sensibilité à la lumière impressionnante. Il est ainsi capable de distinguer les silhouettes de proies et de prédateurs qui se profilent contre la faible lumière descendant dans la colonne d’eau au-dessus de lui, et il peut déjouer le camouflage en contre-illumination des espèces bioluminescentes de la zone crépusculaire. S’il est capable de détecter efficacement la bioluminescence, ce crustacé ne peut en revanche voir avec précision l’organisme qui la produit, car ses yeux possèdent une faible résolution, ce qui fait qu’il voit flou !

Dans les grands fonds, on trouve donc des espèces dont la vision s’est adaptée pour percevoir de très faibles intensités lumineuses, et dans un répertoire de couleurs spécialisé, plutôt que pour produire une image nette et détaillée de leur environnement.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

23.04.2026 à 16:14

Des manchots de l’Antarctique à l’explicabilité en IA. Bienvenue en prétopologie !

Guillaume Guérard, Enseignant-chercheur, Intelligence Artificielle, ESILV, Pôle Léonard de Vinci

Pour développer des systèmes d’IA « explicables », c’est-à-dire dont les humains comprennent les raisonnements, plusieurs pistes existent.
Texte intégral (2074 mots)
Il existe plusieurs espèces de pingouins en Antarctique. Une tâche standard est de classer les individus dans telle ou telle catégorie, tout en comprenant les raisons de ce classement. Arturo de Frias Marques, Wikipedia, CC BY-SA

La plupart des algorithmes performants actuels – notamment l’apprentissage profond (deep learning) et ses réseaux de neurones – fonctionnent comme des boîtes noires. On sait qu’ils donnent de bons résultats, mais impossible de comprendre leur logique interne. Ceci pose problème pour de nombreux domaines d’application (médecine, justice…), ce qui incite les régulateurs à exiger des systèmes « explicables ». Plusieurs pistes vers l’explicabilité existent. Zoom sur la « prétopologie ».


Imaginons un patient dont les résultats sanguins montrent un taux d’hémoglobine de 12,5 grammes par décilitres de sang. Un algorithme de détection précoce du cancer analyse ces chiffres, mais aussi ses antécédents familiaux (présents ou absents), son statut de fumeur (oui ou non), son niveau d’activité physique (faible, moyen, élevé). L’algorithme le classe dans un groupe à risque modéré. Mais quand son médecin lui demande pourquoi, le système ne peut pas répondre : c’est une boîte noire.

Et c’est évidemment un problème pour le patient, le médecin, l’assurance maladie, etc. C’est pour cela que l’AI Act européen, adopté en mars 2024, impose des obligations strictes aux organisations et entreprises opérant en Europe. D’ici 2026-2027, tous les systèmes d’IA dits à haut risque devront être « transparents » et « explicables », c’est-à-dire dont un humain puisse comprendre la logique. Les sanctions pourront atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, car les domaines concernés peuvent avoir des effets importants.

Par exemple, en ressources humaines, les logiciels de tri de CV qui analysent à la fois des niveaux de diplômes, des années d’expérience et des compétences techniques doivent pouvoir justifier pourquoi un candidat est retenu et un autre écarté. Dans l’industrie énergétique, les systèmes de maintenance prédictive qui combinent données de capteurs (température, vibrations), historique de maintenance et type d’équipement doivent expliquer pourquoi une éolienne ou un autre équipement est signalé comme « à risque de panne ».

Pour contrer l’« effet boite noire » des systèmes d’IA actuels, nous proposons une méthode issue d’une discipline méconnue du grand public, la « pré-topologie », qui permet de rendre explicables les raisonnements faits sur des données mixtes (le taux d’hémoglobine est un chiffre tandis que la présence ou non d’antécédents familiaux ne se chiffre pas).

Qu’est-ce que la prétopologie ?

  • La prétopologie, c’est l’art de dessiner des « zones d’influence » autour de chaque personne ou objet dans un réseau – comme les cercles d’amis sur les réseaux sociaux, où l’influence n’est pas forcément réciproque.
  • Pour décrire une zone complexe, elle utilise une recette appelée forme normale disjonctive, qui assemble des blocs de base, puis calcule automatiquement tout ce qui « adhère » à cet assemblage, c'est-à-dire tout ce qui gravite naturellement autour de lui.

Les limites des méthodes actuelles pour rendre les systèmes d’IA « explicables »

Le clustering hiérarchique est aujourd’hui la méthode de référence pour regrouper automatiquement des observations similaires et donc pour rendre les données plus interprétables : en organisant les observations en une hiérarchie de groupes emboîtés (un dendrogramme), il permet à un expert de naviguer entre niveaux de granularité, d’identifier des profils types et d’expliquer pourquoi deux individus sont regroupés ensemble, sans avoir à ouvrir la “boîte noire” d’un modèle prédictif.

Son fonctionnement est simple et transparent. On mesure d’abord la distance entre chaque paire d’observations. Ensuite, on regroupe progressivement les observations les plus proches. Enfin, on obtient un arbre (appelé dendrogramme) qu’on peut couper à différents niveaux pour former des groupes.

Prenons l’exemple des manchots de l’archipel Palmer en Antarctique. Si on mesure la longueur de leur bec et leur masse corporelle, le clustering hiérarchique identifie automatiquement trois groupes qui correspondent aux trois espèces biologiques présentes : Adélie, Jugulaire et Papou. L’atout majeur est sa transparence : on visualise l’arbre, on suit les regroupements successifs, on comprend facilement comment les groupes se sont formés, la hauteur d’embranchement donne une idée de la « différence » entre deux groupes.

Le défi survient quand on mélange chiffres et catégories. Mesurer une distance entre deux chiffres est facile : si un patient a une glycémie de 5,5 millimoles par litres (une unité de concentration) et un autre de 6,2 millimoles par litres, la différence est de 0,7. Mais comment mesurer la distance entre deux « catégories » que l’on ne peut pas chiffrer, comme une réponse oui ou non (fumeur ou non-fumeur), ou encore la couleur d’un tissu biologique ?

Par exemple, dans notre exemple de détection précoce du cancer, si le patient A présente une concentration d’hémoglobine de 12,5 grammes par décilitres (chiffre), des antécédents familiaux (catégorie « oui ») et ne fume pas (catégorie « non ») ; tandis que le patient B présente une concentration d’hémoglobine de 13,1 grammes par décilitres, pas d’antécédents et fume… comment dire si ces deux patients sont « proches » ou « éloignés », en termes de risques ?

Les solutions existantes, comme le k-means, HDBSCAN et DIANA ont toutes des limites. Transformer les catégories en chiffres artificiels (« oui » = 1, « non » = 0) est arbitraire et fait perdre du sens. Plus précisément, ceci signifie que l’on introduit une relation d’ordre et une distance qui n’existent pas : coder « chat » = 1, « chien » = 2, « oiseau » = 3 suggère implicitement que chien est « entre » chat et oiseau, ou que la distance chat-chien est égale à chien-oiseau, ce qui peut biaiser tous les calculs de similarité en aval.

Ignorer les catégories pour ne garder que les chiffres, comme dans les méthodes citées précédemment, fait perdre des informations cruciales comme les antécédents familiaux. Les méthodes statistiques plus complexes sont souvent opaques ou nécessitent des hypothèses fortes sur la structure des données. C’est le cas de la distance de Gower ou de l’analyse des facteurs latents – le genre de structure qui peut se cacher derrière les grands modèles de langage (LLM).

C’est précisément dans la définition de ces voisinages – comment mesurer qu’un patient « ressemble » à un groupe malgré des données hétérogènes – que la prétopologie offre un cadre naturel : elle permet de construire des zones d’influence flexibles, sans imposer de distance artificielle ni d’hypothèses sur la structure des données.

Une solution en développement : mesurer la similarité autrement

Pour cela, au lieu de chercher à mesurer des distances, nous proposons de changer de perspective en définissant des « voisinages », construits via des formes normales disjonctives, ou DNF. Derrière ce nom se cachent des règles logiques simples du type : « Un patient appartient au voisinage d’un groupe si (il est diabétique ET âgé de plus de 60 ans) OU (il a des antécédents familiaux ET est hypertendu) ». Chaque condition entre parenthèses est un bloc ; le voisinage est l’union de ces blocs. Pas de chiffres, pas de distance : seulement des combinaisons de caractéristiques, comme des règles de décision lisibles.

Une fois les voisinages définis, on calcule pour chaque groupe l’ensemble de tous les patients qui lui « adhèrent » – c’est-à-dire qui tombent dans au moins un de ces blocs DNF. Ce calcul d’adhérence est itératif : à chaque étape, des patients rejoignent ou quittent un groupe, jusqu’à stabilisation. Le résultat est analogue à un dendrogramme : on obtient une hiérarchie de regroupements successifs, du plus local (blocs fins, peu de patients) au plus global (grands groupes stables), sans avoir jamais posé de distance artificielle entre catégories et chiffres.

Une analogie aide à comprendre. Sur une carte géographique, on mesure la distance entre Paris et Lyon en kilomètres. Mais on peut aussi dire que Dijon est voisine de Lyon parce qu’elles partagent des caractéristiques : région similaire, climat comparable, économie proche. Cette notion de « voisinage » par caractéristiques communes ne nécessite pas de calculer une distance précise.

Notre algorithme en accès libre pour des études pilotes

C’est le principe de base de PretopoMD, notre algorithme qui classe automatiquement des données mixtes (chiffres et catégories) tout en rendant explicite sa logique de regroupement. Pour les chiffres, deux valeurs sont voisines si elles tombent dans la même fenêtre : toutes les glycémies entre 5 et 7 mmol/L sont voisines. Pour les catégories, deux observations sont voisines si elles partagent la même modalité : deux patients sont voisins s’ils sont tous deux fumeurs, ou si tous deux ont des antécédents familiaux.

PretopoMD est d’ores et déjà disponible en accès libre pour permettre à des équipes en santé, RH ou maintenance de l’utiliser pour des études pilotes. À moyen terme, nous espérons que cette approche puisse aider les organisations européennes à répondre aux exigences de l’AI Act en proposant des classifications explicables par construction.

L’avantage clé est la traçabilité. Pour notre exemple médical, on peut dire :

« Les patients A et C sont dans le même groupe parce qu’ils partagent une glycémie dans la fenêtre 5-7 millimoles par litres (étape 1), tous deux ont des antécédents familiaux (étape 1), et tous deux ont un IMC entre 25-30 (étape 2). Le patient B les rejoint à l’étape 3 via un IMC similaire, malgré l’absence d’antécédents. »

Cette explication pas-à-pas répond directement aux exigences de l’AI Act. De plus, la structure hiérarchique est préservée, on peut identifier grands groupes et sous-groupes pertinents.

Néanmoins, notre algorithme possède des limites, puisqu’il faut choisir la taille des fenêtres et les seuils de similarité, faisant actuellement appel à un expert métier. Nous travaillons sur des méthodes pour automatiser ces choix.

Ainsi, la question reste ouverte : jusqu’où peut-on pousser la performance tout en conservant l’explicabilité ? Dans des domaines sensibles comme la santé ou le droit, ce compromis est-il acceptable ? Notre travail montre qu’on peut au moins explorer cette voie.

The Conversation

Guillaume Guérard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.04.2026 à 16:01

Comment l’IA apprend le langage secret de l’ADN, et ce que la recherche y gagne

Julien Mozziconacci, Professeur en biologie computationelle, Muséum national d’histoire naturelle (MNHN)

Élodie Laine, Professeure en biologie computationnelle, Sorbonne Université

Plutôt que de produire des mots, le modèle d’intelligence artificielle Evo 2 est capable de prédire une base d’ADN en se fondant sur une séquence donnée.
Texte intégral (2133 mots)

Plutôt que de produire des mots, le modèle d’intelligence artificielle Evo 2 est capable de prédire une base d’ADN en se fondant sur une séquence donnée. Lancé, il y a un peu plus d’un an, le modèle s’affine et permet aux scientifiques de mieux comprendre le langage de l’ADN. Sa puissance de calcul pose néanmoins des questions de ressources énergétiques.


Si vous avez déjà utilisé un modèle de langage comme ChatGPT ou Mistral, vous vous souvenez sans doute de la première impression : orthographe impeccable, grammaire fluide, phrases qui ont du sens. Pourtant, sous le capot, ces systèmes ne font qu’une chose très simple : prévoir dans une phrase le mot qui va suivre. Ils utilisent des statistiques apprises sur un immense corpus de textes, et c’est ainsi qu’ils « parlent » français, anglais et bien d’autres langues.

Une idée féconde a alors germé chez les généticiens : et si l’on entraînait la même classe de modèles pour apprendre le langage de la vie, la suite de lettres A, T, G, C, inscrite dans nos génomes ? C’est le pari des modèles de langage génomiques : ils apprennent la grammaire cachée de l’ADN et offrent à la recherche un allié précieux pour explorer, proposer et tester plus vite des hypothèses scientifiques.

Que fait un modèle d’IA ?

Un algorithme d’intelligence artificielle (IA) est, au fond, une machine à transformer des nombres. Les données d’entrée, qui peuvent être des images, des sons ou du texte, sont d’abord encodées en chiffres. Puis l’algorithme applique des opérations simples (additions et multiplications par des paramètres internes au réseau et seuillage) et renvoie les résultats (d’autres chiffres) en sortie. À grande échelle, cette mécanique très simple suffit à jouer au go, à conduire une voiture… ou à comprendre les génomes.

L’astuce, ce n’est pas seulement l’encodage : c’est surtout l’apprentissage. Le modèle ajuste ses paramètres internes à chaque exemple (association entre une entrée et une sortie cible), un peu comme on accorde un instrument : à chaque note jouée, on tend ou détend la corde jusqu’à ce que la mélodie sonne juste.

Les applications de ce principe simple sont multiples et variées. Au jeu de go, l’IA regarde la position des pierres (un tableau de chiffres) et propose le prochain coup ; dans une phrase, le modèle suggère le prochain mot. En génomique, il lit A T G C… et prédit la prochaine base. Si ses prédictions sont bonnes, c’est qu’il a appris quelque chose sur la structure cachée du problème qu’il résout.

Les premiers modèles de langages génomiques

C’est en suivant ce principe que les premiers modèles de langage génomiques ont été entraînés en utilisant des génomes à la place des corpus de texte. Une des versions les plus récentes, Evo 2, a été développée par une large équipe autour du centre de recherche Arc Institute, dans la Silicon Valley. Ce modèle a été entraîné sur de nombreux génomes, comptabilisant près de 10 000 milliards de bases (les fameuses lettres A,C,G,T) ce qui représente 3 000 fois la taille de notre génome.

Le modèle lit à chaque étape un million de bases et le calcul revient toujours à la même question très simple : parmi les quatre lettres possibles (A, C, G ou T), laquelle est la plus probable juste après celles que l’on vient de lire ? La taille gigantesque de sa « fenêtre de lecture » lui permet de saisir à la fois des règles locales et des dépendances lointaines (régulations des gènes à distance). Ce saut d’échelle n’est pas qu’une prouesse technique : il change la manière dont on peut poser des questions en biologie, notamment dans ces régions non codantes (celles qui ne sont pas traduites en protéines) qui restent souvent incomprises et constituent la « matière noire » du génome.

Dans la pratique, l’apprentissage ressemble à une partie de devinettes : à chaque fois que le modèle devine correctement une lettre masquée au sein d’une séquence, il renforce les chemins internes qui l’y ont mené ; lorsqu’il se trompe, il corrige ces chemins. À force, il repère des schémas récurrents : certains motifs précèdent souvent le début d’un gène, d’autres signalent la fin, et certains motifs de la séquence trahissent la façon dont la cellule découpe l’ARN (l’épissage) ou assemble la machinerie de traduction des ARN en protéines.

L’apprentissage se fait d’abord à l’échelle globale. Le modèle lit une grande diversité de génomes et apprend une grammaire générale du vivant. Ensuite, on peut éventuellement l’adapter à une famille d’organismes ou à une question précise (par exemple, en le spécialisant sur un groupe de virus ou de bactéries).

L’IA apprend la grammaire cachée de l’ADN

C’est ici que la recherche s’enthousiasme : en apprenant juste à compléter les séquences, les modèles reconnaissent des signatures biologiques sans qu’on les leur ait pointées du doigt.

Ils retrouvent la périodicité en trois lettres du code génétique : le texte du vivant se lit par triplets (les codons), et les modèles « entendent » ce rythme, comme une mesure en musique. Ils repèrent aussi les départs et arrêts de gènes, avec des contraintes fortes sur les lettres les plus importantes, où l’on s’attend à ce que l’erreur soit rare. Ils détectent des signaux utiles à la machinerie cellulaire : chez les bactéries, les sites de liaison du ribosome ; chez les eucaryotes, les frontières entre exons (conservés) et introns (séquences à retirer), comme si le modèle distinguait les paragraphes et les espaces dans un texte.

Plus étonnant, ils révèlent aussi les éléments mobiles (par exemple, des virus intégrés au génome au cours de l’évolution) et même des empreintes liées aux formes 3D des protéines (hélices α, feuillets β) et des ARN. Le modèle dessine alors les contours de la sculpture finale. Car c’est bien de sculpture qu’il s’agit.

Le génome ne contient pas seulement des instructions – il encode des formes. Une protéine, un ARN, ne sont pas de simples colliers de lettres : ils se replient, se tordent, se nouent dans l’espace pour adopter une architecture précise, dont dépend leur fonction. C’est cette forme qui permet à une molécule de reconnaître une autre, de s’y accrocher, de déclencher une réaction. Les contacts qui stabilisent cette forme se font parfois entre des régions très éloignées dans la séquence – et pourtant, les modèles semblent capables de les capturer, comme s’ils devinaient, à force de lire le texte, quelles lettres se correspondent malgré la distance qui les sépare.

Ce qui peut surprendre, c’est que ces découvertes n’ont pas été enseignées : elles émergent spontanément de l’apprentissage. Et parfois, paradoxalement, quand on essaie d’affiner le modèle en lui montrant des exemples bien connus, il perd une partie de ce qu’il avait trouvé seul. Comme si trop guider l’élève lui faisait oublier ce qu’il avait intuitivement compris.

Pour rendre cette « boîte noire » plus lisible, les chercheurs utilisent des « autoencodeurs clairsemés » qui décomposent les représentations internes du modèle en traits compréhensibles. Chaque trait s’allume comme une lampe au-dessus d’un élément de séquence (exon, motif, élément mobile). Ces traits servent de fil d’Ariane. Ils indiquent où le modèle a vu un signal, de quel type il est et comment il varie d’un organisme à l’autre. On peut même transférer ces traits vers des génomes peu étudiés, ouvrant la voie à des atlas fonctionnels multi‑espèces construits de manière plus rapide et moins coûteuse que par les approches classiques.

Dans nos propres recherches, Evo 2 est surtout un point de comparaison : il montre jusqu’où peut aller un très grand modèle quand on lui donne énormément de données et de puissance de calcul. Il faut aussi voir que cette démonstration a une dimension vitrine pour Nvidia, le plus gros fabricant de processeurs pour l’IA, qui a mis sa puissance de calcul au service de l’Arc Institute pour concevoir Evo 2. L’idée sous-jacente est de montrer qu’il faut des modèles gigantesques et des infrastructures de calcul hors normes pour déchiffrer le secret de la vie. Le résultat est impressionnant, mais ce n’est pas forcément le seul chemin possible pour faire avancer la biologie.

Nous avons justement lancé le projet PLANETOID, financé dans le cadre de France 2030, pour explorer une stratégie complémentaire : construire des modèles beaucoup plus petits, plus rapides, plus faciles à entraîner et à déployer dans des laboratoires académiques. L’objectif est d’exploiter des données de biodiversité riches, produites par nos partenaires – en particulier au Muséum national d’histoire naturelle et dans les stations marines – afin d’annoter des génomes et des métagénomes (des ensembles de génomes) à l’échelle de l’arbre du vivant, y compris pour des espèces dites « non modèles », qui représentent l’immense majorité du vivant, mais restent souvent mal comprises.

PLANETOID vise aussi à produire des ressources et des outils réutilisables, pour que ces approches ne restent pas réservées à quelques acteurs capables de mobiliser des moyens industriels, mais puissent irriguer la recherche publique, puis à terme la santé et l’environnement.

Le futur : estimer l’effet d’une mutation ou écrire de nouveaux génomes

Parce qu’un modèle de langage assigne une vraisemblance à chaque séquence, il devient possible de comparer la version de référence et une version mutée. Si la mutation fait chuter la vraisemblance, elle devient suspecte. Ce score agit comme une carte pour guider les chercheurs : il montre des zones où une variation risque de perturber une fonction et oriente les expériences à prioriser.

Une autre application a le vent en poupe : la génération de séquences « fonctionnelles » in silico. Les chercheurs ont montré qu’on peut composer du texte génétique qui a toutes les caractéristiques de génomes naturels. Toutefois cette pratique soulève d’importantes questions éthiques (risques eugénistes, possibilité de virus synthétiques…) et doit rester strictement encadrée – c’est un sujet de société plus qu’un enjeu immédiat de recherche.

The Conversation

Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

Élodie Laine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.04.2026 à 15:44

« StravaLeaks » : quand les traces numériques deviennent un enjeu de sécurité

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques sont devenues un enjeu central de sécurité pour les environnements sensibles.
Texte intégral (1607 mots)

L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques ordinaires sont devenues un enjeu central de sécurité pour les environnements sensibles. De simples données de déplacement issues d’un footing, enregistrées et partagées par une application publique, ont pu être utilisées pour localiser des navires ou des bases militaires.


Un footing, en apparence, n’a rien de sensible. Pourtant, en mars 2026, une activité enregistrée sur Strava par un militaire français a permis de localiser en temps quasi réel le porte‑avions Charles-de-Gaulle en Méditerranée orientale. Dès 2018, la carte de chaleur mondiale de Strava – une visualisation agrégée des activités publiques enregistrées par ses utilisateurs – avait déjà révélé des bases militaires et des sites sensibles, et des enquêtes plus récentes ont montré que les pratiques sportives de gardes du corps pouvaient trahir des habitudes de déplacement de chefs d’État.

Le problème ne vient pas d’un piratage sophistiqué, mais d’un usage banal de montre connectée, compte public et trace GPS accessible en ligne. Ce cas illustre comment la sécurité d’aujourd’hui ne se limite plus à la protection physique, mais inclut aussi la maîtrise des traces numériques produites par nos comportements les plus ordinaires.

Quand une application déborde de son usage initial

Strava est une application conçue pour suivre et partager des performances sportives. Son usage premier relève du loisir, de la sociabilité numérique et du suivi de soi, non de la documentation d’activités sensibles. C’est pourtant là toute l’ambivalence de ce type d’outils car sans avoir été pensés pour la sécurité, ils peuvent produire des effets très concrets sur elle.

À mesure que les technologies de traçabilité s’installent dans les usages quotidiens, elles cessent d’apparaître comme des dispositifs de contrôle. Elles deviennent des outils familiers, associés au confort ou à l’optimisation des pratiques. Dès lors, une course, un itinéraire répété, un point de départ ou d’arrivée ou une activité enregistrée en mer peuvent révéler bien davantage qu’une simple pratique sportive. Une donnée de performance peut devenir un indice sur une routine, une présence ou une habitude de déplacement.

Le cas Strava n’est d’ailleurs pas isolé. À l’aéroport d’Heathrow (Londres), en 2014, des toilettes connectées ont été testées pour mesurer anonymement leur fréquentation, améliorer le nettoyage et mieux répartir les moyens de maintenance. L’exemple peut sembler éloigné, mais il montre que, au-delà des outils explicitement sécuritaires, des dispositifs connectés collectent eux aussi discrètement des traces numériques sur les comportements des usagers. En ce sens, la vulnérabilité ne naît plus seulement d’une attaque ou d’une fuite volontaire, mais aussi d’usages ordinaires dont les effets de visibilité sont souvent sous-estimés.

La sécurité ne se joue plus seulement sur le terrain

Longtemps, la sécurité a été pensée selon un modèle essentiellement physique. Il fallait protéger une personne, sécuriser un déplacement, contrôler un périmètre, anticiper une menace. Cette logique est toujours d’actualité mais, à l’ère numérique, elle ne suffit plus.

Dans un environnement saturé d’objets connectés, de plateformes et de données de localisation, la vulnérabilité peut désormais naître à la périphérie du dispositif de protection. Elle ne résulte plus forcément d’une intrusion ou d’une action malveillante. Elle peut venir d’un usage mal paramétré, d’une routine numérique non interrogée ou d’un outil utilisé sans conscience de ses effets de visibilité.

La sécurité d’un responsable politique, d’un chef d’entreprise, d’un diplomate ou d’un site sensible dépend donc aussi des traces numériques produites par son environnement humain et technique : assistants, chauffeurs, escortes, collaborateurs, militaires, objets connectés, applications de suivi ou réseaux de partage. Protéger une « personne sensible », une personnalité, aujourd’hui, ce n’est plus seulement protéger son corps ou son itinéraire. C’est aussi protéger l’écosystème informationnel qui l’entoure.

Cette évolution renvoie à une sécurité de plus en plus renforcée par la technologie via les capteurs, les données et les outils de suivi. Mais l’ajout de technologie ne supprime pas la vulnérabilité. C’est justement le problème d’une lecture technosolutionniste qui surestime la complémentarité humain-machine. Elle rappelle au contraire qu’une technologie n’est efficace qu’à condition d’être articulée à l’analyse humaine, à l’expérience de terrain et à une compréhension fine du contexte. Certes, la technologie renforce donc la vigilance, mais elle ne remplace ni le jugement, ni la formation, ni la culture du risque.

La vulnérabilité observée est également organisationnelle, culturelle et humaine. Elle naît d’une forme de non-concordance entre la banalité des usages numériques (courir avec une montre connectée, par exemple) et la sensibilité des environnements dans lesquels elles s’inscrivent (être dans un endroit classifié secret-défense). Un même outil peut être perçu comme un outil de confort ou de performance tout en produisant des effets d’exposition importants.

Former devient donc aussi important qu’équiper dans la mesure où il ne s’agit pas seulement d’interdire certains usages, mais plutôt de faire comprendre comment une trace numérique par définition invisible peut, par agrégation et recoupement, devenir une information sensible. La sécurité ne se joue donc plus dans le contrôle des outils, mais dans l’intelligence des pratiques.

Réintégrer l’humain au centre de la doctrine de sécurité

L’un des principaux enseignements de ces affaires est qu’aucune technologie ne protège à elle seule. Une application, une montre connectée ou un dispositif de géolocalisation ne sont ni bons ni mauvais en soi. Comme le montre la recherche, tout dépend du cadre dans lequel ils sont utilisés, des règles qui les entourent et de la capacité des acteurs à en comprendre les effets. Raison pour laquelle la réponse ne peut pas être juste « technique ».

Elle suppose aussi une doctrine d’usage, une formation adaptée et une culture sécuritaire partagée. À l’inverse la traçabilité peut aussi renforcer la protection, mais elle ne remplace ni l’analyse humaine, ni l’appréciation du contexte, ni les méthodes classiques de sécurité.

Autrement dit, la sécurité des environnements sensibles repose sur une complémentarité entre l’outil et l’humain. Il ne suffit pas de déployer des dispositifs ; encore faut-il que les utilisateurs comprennent ce qu’ils produisent, ce qu’ils exposent et les conséquences possibles de leurs usages entre une possible surveillance et une souveillance, c’est-à-dire une forme plus discrète de captation des traces intégrées aux gestes ordinaires et parfois à peine perçue par ceux qui y participent.

Dans le cas Strava, l’enjeu n’est donc pas seulement de mieux paramétrer une application. Il est de construire une culture du risque numérique, capable d’intégrer les gestes les plus ordinaires à la réflexion sécuritaire.

Ce que la recherche nous enseigne en lien avec ces cas est que la vraie leçon de ces affaires est peut-être là : dans un monde connecté, la menace ne réside pas seulement dans ce que l’on cherche à cacher, mais aussi dans ce que l’on produit sans y penser.

Ces affaires dites « StravaLeaks » montrent que la traçabilité numérique, loin d’être un simple confort d’usage, peut devenir un enjeu de sûreté dès lors qu’elle s’inscrit dans un environnement sensible. Protéger, aujourd’hui, ce n’est plus seulement verrouiller un périmètre ou escorter une personnalité. C’est aussi apprendre à gouverner les traces que produisent les usages les plus ordinaires.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.04.2026 à 16:14

À Disneyland Paris, la géologie du Grand Nord mise en scène dans l’extension consacrée à la « Reine des Neiges »

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Et si l’émerveillement, malgré tous les artifices déployés dans un parc d’attractions, était une porte d’entrée vers des notions scientifiques complexes ?
Texte intégral (2846 mots)
Le nouveau « monde » du parc, avec ses montagnes en arrière-plan. Elodie Pourret-Saillet, Fourni par l'auteur

Le dimanche 29 mars a eu lieu l’inauguration en grande pompe du nouvel espace World of Frozen, inspiré de la franchise de films d’animation éponyme, dans le parc secondaire de Disneyland Paris rebaptisé pour l’occasion Disney Adventure World. Mais derrière cette extension historique du parc parisien, dans laquelle a été recréé un fjord, ainsi qu’une une « Montagne du Nord » de 36 mètres de haut, ce sont les objets géologiques emblématiques de l’environnement scandinave et alpin qui sont mis en avant et ainsi rendus visibles pour le grand public.


Rappelez-vous le film La Reine des Neige, dans lequel après avoir révélé ses pouvoirs, le personnage principal, Elsa, se réfugie dans un palais de glace qu’elle bâtit au creux de la Montagne du Nord. C’est cette Montagne du Nord, plus vraie que nature et culminant à 36 mètres de haut, qui a été recréée en surplomb du « Monde de la Reine des Neiges ». Si cet élément de décor n’a bien sûr rien de naturel dans sa fabrication, il reprend l’ensemble des formes et des types de roches présents dans la représentation imaginaire de l’environnement nordique et alpin.

Ainsi, le premier élément visible pour le visiteur qui découvre le World of Frozen est cette montagne sous la forme d’un pic pyramidal presque parfait. Cette représentation du pic montagneux « idéal » est directement inspirée du sommet du Cervin dans les Alpes Suisses (ou Matterhorn en allemand).

L’univers de la Reine des Neiges, la nuit. Elodie Pourret-Saillet, Fourni par l'auteur

Le Cervin est une montagne devenue emblématique depuis les débuts de l’alpinisme et sa première ascension en 1865. La forme pyramidale du Cervin est issue de la combinaison entre l’érosion différentielle, c’est-à-dire l’érosion qui affecte différemment les roches en fonction de leur résistance relative, et la structure tectonique même des Alpes. Le Cervin est situé au centre de la chaîne alpine au cœur d’une large nappe de charriage, c’est-à-dire un ensemble géologique qui a subi un large déplacement latéral : la nappe de la Dent Blanche. Les roches qui composent le Cervin sont essentiellement des gneiss et des granites dans sa partie basale – des roches très dures – tandis que sa petite partie sommitale est constituée de paragneiss et de schistes bien plus facilement érodés. Les gneiss et granites très durs qui composent sa base ont permis l’émergence d’arêtes très nettes, qui ont amenés à cette forme pyramidale aujourd’hui caractéristique et reconnaissable entre toutes.

Le Cervin, vu depuis le village de Zermatt. Wikimedia, Marcel Wiesweg, CC BY-SA

Volcan éteint et légende arthurienne

Une fois passé ce premier sommet emblématique, le regard du visiteur se déplace vers un relief qui s’adoucit : une succession de collines et de plateaux dont la base est clairement inspirée par les orgues basaltiques.

Ce paysage de collines douces et de pentes herbeuses qui surplombent un alignement basaltique et des habitations typiques est comparable au relief volcanique d’Arthur’s Seat à Édimbourg, en Écosse. Au bout du Royal Mile et jouxtant le palais de Holyrood, le relief d’un ancien volcan marque le paysage écossais. Cet ancien relief volcanique présente à sa base des orges basaltiques typiques, issus du refroidissement rapide des coulées volcaniques, et des sommets herbeux adoucis.


À lire aussi : Images de science : d’où viennent les orgues basaltiques ?


Moins connu en France que le Cervin, Arthur’s Seat (ou Trône d’Arthur en traduction littérale) n’en est pas moins emblématique, faisant directement référence à la légende arthurienne.

A la différence du Cervin, à composition essentiellement gneissique et granitique, Arthur’s Seat est donc de composition volcanique basaltique. C’est dans cette juxtaposition entre un soubassement volcanique, sur lequel s’adosse un village typique, et un sommet pyramidal que vient s’ancrer la reconstitution des reliefs emblématiques du land. Dans la nature, il serait peu probable de retrouver un sommet gneissique surplombant directement une coulée volcanique. En revanche, la juxtaposition de sommets mythiques par leur forme fonctionne, car elle fait appel à notre imaginaire tout en s’appuyant sur des images bien ancrées dans les représentations partagées de la montagne et des paysages nordiques.

Le paysage d’Arthur’s Seat, à Édimbourg, en Ecosse. Wikimedia, Kim Traynor, CC BY-SA

Le fjord, vallée mythique de Scandinavie

L’ensemble du nouvel espace World of Frozen, qui s’étend au pied de la Montagne du Nord s’articule autour d’un fjord recréé de toutes pièces, offrant aux visiteurs un nouveau lieu de spectacle.

Le fjord est une figure géomorphologique majeure des côtes scandinaves, issue de la combinaison complexe entre l’érosion glaciaire et la remise en eau des vallées. C’est une avancée de la mer à l’intérieur des terres, entourée de reliefs escarpés façonnés par l’érosion glaciaire.

Lors de la dernière glaciation, la calotte glaciaire descendait très au sud depuis les pôles. Les glaciers creusent alors, partout en Europe de l’Ouest, les typiques vallées glaciaires en U ou vallées en auges, caractérisées par de grandes parois abruptes et un fond plat. Ces vallées sont également très profondes en raison de la baisse simultanée du niveau des mers et des océans, qui crée un déséquilibre : les fleuves et les glaciers doivent creuser davantage pour retrouver le niveau de base des mers, dont l’eau est alors retenue sur les calottes polaires.

Lorsque la dernière glaciation prend fin il y a environ 10 000 ans, les glaciers fondent partout en Europe. L’eau, désormais sous forme liquide, entraîne une remontée du niveau des mers et des océans. Survient alors la mise en eau des vallées glaciaires abandonnées qui deviennent des fjords en Scandinavie. Mais si les fjords sont essentiellement présents sur les côtes de la Norvège et de l’Islande, ils existent aussi bien plus près de nous en France, on les appelle abers en Bretagne et calanques en Provence.

Les trolls, ou le folklore de l’érosion

Les trolls sont présents partout dans le Monde de la Reine des Neiges : dans l’attraction Frozen Ever After bien sûr, mais aussi sous forme de personnage dans le land et même disponibles à l’achat sous forme de figurines interactives à ramener chez soi. Dans La Reine des Neiges, les trolls sont des créatures rondes, trapues, qui se confondent volontiers avec des rochers. Ce n’est pas une invention fortuite des scénaristes, mais le reflet fidèle d’une croyance très ancienne du folklore scandinave, elle-même enracinée dans l’observation des paysages de granite érodé de Norvège, de Suède et du Danemark.

Le Trolltunga, toponyme norvégien signifiant « la langue du troll », est une proéminence de falaise dans le sud-ouest de la Norvège. Wikimedia, Steinar Talmoen, CC BY-SA

La légende veut que les trolls, surpris par la lumière du soleil, soient transformés en pierre. C’est pourquoi, partout en Norvège, des formations rocheuses arrondies évoquent leurs silhouettes : une main, un dos, un gros nez. Pour les populations nordiques, ces blocs de granite aux formes anthropomorphes n’étaient pas le fruit du hasard géologique, ils étaient les restes pétrifiés de créatures nocturnes trop lentes à regagner leurs cavernes.

La réalité géologique de ces formes est tout aussi remarquable que le mythe. Les granites, roches magmatiques intrusives formées en profondeur par cristallisation lente d’un magma, présentent des fractures naturelles qui les découpent en blocs lors de leur mise en place. L’altération, sous l’action du gel, de l’eau, de la végétation et des glaciers, attaque préférentiellement les angles et les arêtes. C’est le phénomène d’érosion en boule : les coins disparaissent les premiers, et le bloc cubique se transforme progressivement en boule. On parle alors de boules de granite, ou parfois de chaos granitiques lorsqu’elles s’accumulent en amas spectaculaires.

La géologie nordique à la portée du grand public

Avec l’ouverture de son nouvel espace consacré à la Reine des Neiges, Disney s’inspire une nouvelle fois des paysages et de la géologie qui nous entourent pour ancrer ses récits et ses décors dans un imaginaire partagé. Sans le savoir, le visiteur qui franchit les portes de cet univers est immergé dans un condensé d’objets géologiques qui font appel aux interactions entre tectonique, volcanisme et processus érosifs à l’œuvre dans le nord de l’Europe.


À lire aussi : Disneyland Paris, un parc d’attractions… inspiré de merveilles géologiques réelles


Le monde de la « Reine des Neiges », en reconstituant une montagne enneigée de trente-six mètres de hauteur surplombant un fjord, offre ainsi aux visiteurs une forme d’expérience géologique. Les enfants qui découvriront le château de glace d’Elsa, les falaises sombres de basalte et les trolls de pierre marcheront ainsi, sans le savoir, sur les traces du Cervin, des fjords norvégiens, d’Arthur’s Seat et des granites de Scandinavie !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

17.04.2026 à 08:55

Comment les reines bourdons peuvent-elles survivre plusieurs jours sous l’eau ?

Sabrina Rondeau, Postdoctoral Researcher in Pollinator Ecology, L’Université d’Ottawa/University of Ottawa

Charles-Antoine Darveau, Professor, Department of Biology, L’Université d’Ottawa/University of Ottawa

Nigel Raine, Professor/ Rebanks Family Chair in Pollinator Conservation, University of Guelph

Un accident de laboratoire a révélé une capacité insoupçonnée des reines bourdons : elles peuvent survivre et respirer sous l’eau pendant plusieurs jours.
Texte intégral (1811 mots)
Une reine bourdon accumule des réserves nutritives en prévision de l’hivernage. Lucas Borg-Darveau

Les colonies de bourdons dépendent entièrement de la survie des reines pendant l’hiver. Une découverte surprenante montre qu’elles peuvent respirer sous l’eau et survivre à une immersion prolongée.


Chez la plupart des espèces de bourdons, les reines passent l’hiver enfouies sous terre dans une petite cavité de la taille d’un raisin. Pendant six à neuf mois, elles attendent le retour du printemps dans un état proche du sommeil profond appelé diapause. Mais avec le changement climatique, les pluies deviennent plus intenses dans de nombreuses régions et les reines qui hivernent sous terre sont de plus en plus exposées aux risques d’inondation.

Heureusement, ces insectes peuvent survivre plusieurs jours sous l’eau sans se noyer. De façon inattendue, nos nouvelles recherches montrent qu’elles y parviennent grâce à un processus qui leur permet de passer jusqu'à huit jours immergées tout en continant à respirer.

Tout a commencé par un accident de laboratoire

Nous avons d’abord découvert que les reines bourdons en hivernage pouvaient survivre à une immersion grâce à un accident.

Lors d’une expérience menée à l’Université de Guelph (Ontario, Canada), certains des tubes dans lesquels les reines passaient l’hiver dans un réfrigérateur de laboratoire se sont accidentellement remplis d’eau. Au départ, nous avons pensé que les reines étaient mortes. Mais après avoir vidé l’eau, elles ont commencé à bouger et se sont rapidement rétablies, suggérant que les reines bourdons étaient en mesure de survivre à une immersion.

Une reine bourdon respirant sous l'eau. (Charles-Antoine Darveau)

Nous avons alors conçu une expérience de suivi impliquant 143 reines du bourdon commun de l’Est (Bombus impatiens). Nos résultats ont confirmé qu’il ne s’agissait pas d’un simple hasard : les reines ont bel et bien résisté à une immersion complète pendant près d’une semaine.

Restait une question intrigante : comment cet insecte pollinisateur terrestre peut-il survivre sous l’eau ? Pour y répondre, il nous fallait adopter une nouvelle approche et étudier leur physiologie.

Au cœur de la colonie

La reine est le cœur d’une colonie de bourdons : elle est la seule capable d’assurer la génération suivante. Si l’on entend souvent le bourdonnement des ouvrières qui visitent les fleurs en été, les reines, elles, sont rarement visibles. Elles passent en effet une grande partie de la saison à l’intérieur du nid, où elles pondent des œufs qui donneront naissance aux ouvrières puis, plus tard dans l’été, aux mâles et aux nouvelles reines.

Lorsque l’hiver arrive, la plupart des membres de la colonie meurent et seules les reines nouvellement produites survivent. Après l’accouplement, elles se dispersent et s’enfouissent dans le sol, chacune s’installant dans une petite cavité où elle entre en diapause. Quand le printemps revient enfin, les reines qui ont survécu à ce long sommeil souterrain sortent de leur abri et entreprennent la tâche cruciale de fonder une nouvelle colonie.

Respirer sous l’eau

Pour comprendre comment ces reines peuvent survivre à une immersion, nous avons étudié leur respiration et leur métabolisme lors d'une expérience subséquente menée à l’Université d’Ottawa (Ontario, Canada). Pendant la diapause, les reines sont déjà dans un mode d’économie d’énergie extrême. L’énergie nécessaire à leur survie — leur taux métabolique — chute de plus de 99 %. Lorsqu’elles sont immergées, leurs besoins énergétiques diminuent encore davantage. Avec des besoins en oxygène aussi faibles, respirer sous l’eau devient possible.

Mais comment avons-nous pu déterminer que les reines respirent réellement sous l’eau ? Une méthode consiste à mesurer les échanges de gaz avec l’eau environnante. C’est ce que nous avons fait, et les résultats sont frappants : pendant huit jours d’immersion, les reines ont continué à consommer de l’oxygène et à libérer du dioxyde de carbone sous l’eau.

Une reine de bourdon dans son hibernaculum (terrier souterrain). (Sabrina Rondeau)

De nombreux insectes aquatiques utilisent une astuce simple pour respirer sous l’eau. Une fine couche d’air adhère à leur corps, ce qui leur permet d’utiliser leur système respiratoire habituel — le système trachéen. L’oxygène présent dans l’eau environnante se diffuse progressivement dans cette couche d’air. Les reines bourdons s'appuient probablement sur un mécanisme similaire.

Toutefois, la respiration sous l’eau ne suffit pas à couvrir entièrement leurs besoins énergétiques. Pour combler ce manque, les reines produisent aussi une partie de leur énergie grâce au métabolisme anaérobie — un processus qui ne nécessite pas d’oxygène. Cette voie produit de l’acide lactique, que nous avons effectivement détecté chez les reines pendant l’immersion.

Ces adaptations physiologiques leur permettent de survivre sous l’eau, mais elles ont un coût. Après être remontées à la surface, les reines doivent passer plusieurs jours à récupérer, en dépensant bien plus d’énergie que si elles n’avaient jamais été immergées.

Une résilience inattendue

Les reines bourdons passent l’hiver seules, enfouies sous terre et dépendantes des réserves d’énergie accumulées pour survivre jusqu’au printemps. Leur capacité à tolérer plusieurs jours d’immersion — et même à respirer sous l’eau — révèle une résilience inattendue face à l’un des dangers de cette vie souterraine.

C’est un point crucial, car les colonies de bourdons dépendent entièrement de la survie des reines qui hivernent. Si une reine meurt pendant l’hiver, la colonie qu’elle aurait fondée au printemps suivant ne verra jamais le jour.

Cette capacité à survivre à une immersion pourrait jouer un rôle important — et jusqu’ici largement sous-estimé — dans la résilience des populations de bourdons menacées. Même pour des insectes aussi familiers et relativement bien étudiés, il reste donc encore beaucoup à découvrir sur les façons parfois surprenantes dont ils parviennent à faire face aux défis environnementaux.

The Conversation

Sabrina Rondeau a reçu des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du Fonds de recherche du Québec — Nature et technologies, ainsi que de la Fondation de la famille Weston.

Charles-Antoine Darveau reçoit des financements du programme de subventions à la découverte du Conseil de recherches en sciences naturelles et en génie du Canada.

Nigel Raine reçoit des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du projet Horizon Europe ProPollSoil, du Fonds d’innovation de la Fondation canadienne pour l’innovation, du ministère de l’Agriculture, de l’Alimentation et de l’Agroentreprise de l’Ontario, de la Fédération canadienne de la faune et de la Fondation de la famille Weston.

PDF

15.04.2026 à 09:54

Attaque, défense, digestion… les venins de fourmis révèlent enfin leurs secrets

Axel Touchard, Chercheur, Inrae; Centre national de la recherche scientifique (CNRS)

Les venins de fourmis commencent à révéler leurs secrets. De nouvelles techniques permettent de les analyser et de comprendre leur fascinante complexité.
Texte intégral (1797 mots)

Les venins de fourmis commencent à révéler leurs secrets. Ils sont longtemps restés dans l’ombre, car la quantité produite par chaque individu est très faible, mais de nouvelles techniques permettent de les analyser et de comprendre leur fascinante complexité.


En étudiant des espèces de fourmis de la forêt amazonienne de Guyane, nos recherches mettent en lumière une diversité et une sophistication inattendues largement façonnées par les proies qu’elles consomment, leur socialité mais aussi par la nécessité de se protéger contre les prédateurs. Ces résultats, publiés dans Molecular Ecology et dans Science, offrent un nouvel éclairage sur l’évolution des venins chez les insectes sociaux.

Nous avons découvert que toutes les fourmis d’une même colonie ne possèdent pas une composition de venin identique. Chez les fourmis légionnaires, le venin des soldats contient des enzymes digestives, probablement impliquées dans la prédigestion des proies. Chez la fourmi Neoponera goeldii, le venin contient une molécule qui imite une hormone de vertébré, provoquant une douleur immédiate pour dissuader les prédateurs.

Des venins encore largement méconnus

Les venins sont des mélanges complexes de dizaines voire de centaines de molécules biologiquement actives utilisées pour immobiliser des proies et se défendre. Ils contiennent des molécules appelées « toxines », souvent des protéines, qui perturbent rapidement des fonctions vitales, telles que la transmission nerveuse ou la coagulation sanguine.

Les recherches se sont surtout concentrées sur les grands animaux venimeux, comme les serpents, les scorpions ou les araignées. Cela s’explique par la quantité de venin qu’ils produisent, mais aussi par leur dangerosité pour l’humain. Aujourd’hui, ces venins sont également étudiés pour leur potentiel thérapeutique, car certaines toxines ont déjà inspiré des médicaments commercialisés. Une molécule issue du venin d’une vipère d’Amazonie (Bothrops jararaca) a, par exemple, conduit au développement du Captopril, un médicament aujourd’hui largement prescrit dans le traitement de l’hypertension artérielle.

Historiquement, le tout premier composé de venin à avoir été caractérisé est l’acide formique, isolé à partir de la distillation des fourmis du genre Formica par John Wray en 1670. Si presque toutes les fourmis sont venimeuses, toutes ne piquent pas. Certaines projettent des substances chimiques, souvent à base d’acide formique ou d’autres composés volatils. Environ la moitié des espèces possèdent toutefois un aiguillon fonctionnel comparable à celui des guêpes et des abeilles, leur permettant d’injecter un venin riche en protéines.

Ces venins sont longtemps restés peu étudiés. La raison en est simple : chaque fourmi ne produit que quelques nanolitres de venin, ce qui rend leur collecte et leur analyse difficiles. Pourtant, avec presque 15 000 espèces décrites, les fourmis constituent un immense réservoir de diversité chimique encore largement inexploré.

Un défi technique pour les scientifiques

Avant d’étudier les venins, les chercheurs doivent d’abord prospecter dans la forêt afin de localiser les espèces et collecter les colonies. Les fourmis occupent en effet toutes les strates de l’écosystème terrestre, du sous-sol jusqu’à la canopée, et certaines espèces peuvent s’avérer particulièrement difficiles à trouver.

Une fois au laboratoire, les fourmis sont disséquées individuellement sous loupe binoculaire. À l’aide de pinces extrêmement fines, notre équipe de recherche extrait les réservoirs à venin. Des dizaines, voire des centaines d’individus sont souvent nécessaires pour obtenir une quantité de venin suffisante pour les analyses.

La composition du venin est étudiée grâce à des techniques de pointe : la spectrométrie de masse identifie précisément les protéines présentes, tandis que le séquençage des ARN permet de lire les instructions génétiques utilisées par les fourmis pour les produire. En combinant ces méthodes, nous pouvons relier chaque molécule à son gène, révélant toute la richesse chimique de ces venins.

Chez les fourmis légionnaires, une division des tâches jusqu’au venin

Parmi les espèces étudiées, nous nous sommes intéressés aux fourmis légionnaires (Eciton hamatum), dont le venin n’avait encore jamais été exploré. Ces fourmis se distinguent par leur mode de vie nomade : elles ne construisent pas de nid fixe, ce qui les rend particulièrement vulnérables aux prédateurs.

Pour y faire face, elles ont développé une organisation sociale très spécialisée. Certaines ouvrières, appelées « soldats », ont des mandibules hypertrophiées en forme de crochet qu’elles utilisent pour pincer efficacement les vertébrés susceptibles de les attaquer. Les autres ouvrières, appelées « minors », assurent l’ensemble des tâches de la colonie tout en participant également à sa défense. Ainsi, toutes les fourmis légionnaires disposent d’un venin douloureux. Ces insectes sont également de redoutables prédatrices : elles organisent des raids massifs, parfois mobilisant des milliers d’individus, pour capturer une grande variété de proies, principalement d’autres fourmis, des guêpes, mais aussi des araignées et parfois de petits vertébrés, comme des lézards.

L’étude du venin de la fourmi légionnaire a montré que celui des soldats présente une composition en protéines plus simple que celui des autres ouvrières. Tous ces venins provoquent une douleur chez les vertébrés, mais seul celui des soldats est capable de paralyser efficacement les insectes. Plus surprenant encore, ce venin contient également des enzymes digestives, les chymotrypsines. Cela suggère que le venin ne sert pas uniquement à immobiliser les proies ou à provoquer de la douleur, mais qu’il pourrait aussi contribuer à leur prédigestion.

Cette hypothèse prend tout son sens lorsque l’on considère le cycle de vie de ces fourmis. Les colonies alternent entre une phase statique d’environ vingt jours, durant laquelle elles restent en bivouac, chassent intensivement tandis que la reine pond massivement, et une phase nomade d’environ quinze jours, marquée par le déplacement quotidien de la colonie pour répondre aux besoins alimentaires élevés des larves nouvellement écloses. Or, les fourmis adultes ne peuvent consommer que des liquides, car leur système digestif filtre les particules solides. Ce sont donc les larves qui digèrent habituellement les proies. Mais lors de la phase statique, les larves sont rares, voire absentes. En temps normal, ce sont donc les larves qui assurent la digestion des proies. Nous avançons ainsi l’hypothèse que les enzymes présentes dans le venin des soldats permettraient de prédigérer les proies, facilitant ainsi l’alimentation des adultes, même en l’absence de larves.

Imiter son ennemi pour mieux se défendre

Une autre stratégie a été mise en évidence chez la fourmi Neoponera goeldii. Son venin contient en effet une toxine qui imite la bradykinine, une hormone propre aux vertébrés et impliquée dans la douleur et l’inflammation. Or, les insectes ne possèdent ni cette hormone ni les récepteurs qui lui sont associés. Autrement dit, cette molécule ne cible pas les proies, mais leurs prédateurs, notamment les oiseaux et les mammifères. En activant les récepteurs de la douleur chez les vertébrés, elle provoque une douleur immédiate et intense, ce qui constitue une défense efficace contre les prédateurs.

Dans notre étude, nous avons également identifié des toxines imitant la bradykinine dans certains venins de guêpes, mais Neoponera goeldii est la seule espèce de fourmis connue pour posséder une telle toxine.

L’écologie de cette espèce éclaire cette adaptation. Neoponera goeldii est une fourmi arboricole qui vit dans des structures étonnantes appelées « jardins de fourmis ». Les ouvrières construisent leurs nids en assemblant des débris végétaux, des fibres et de la terre, formant ainsi un terreau suspendu dans la végétation. Elles y intègrent des graines de plantes épiphytes, c’est-à-dire des plantes qui poussent sur d’autres sans les parasiter (comme certaines broméliacées ou orchidées), qui germent directement dans le nid. Avec le temps, les racines de ces plantes grandissent et stabilisent la structure, tandis que les fourmis bénéficient d’un abri durable en hauteur. Cette association forme de véritables « jardins suspendus », parfois volumineux et très visibles dans la canopée. Cependant, cette visibilité a un coût : contrairement aux espèces discrètes qui vivent dans le sol ou le bois mort, ces colonies sont exposées en permanence aux prédateurs. Dans ce contexte, la fuite ou la dissimulation sont peu efficaces. La défense repose donc sur un venin capable de provoquer une douleur chez un prédateur.

Ces résultats montrent à quel point la composition des venins de fourmis est liée au mode de vie des espèces : ce sont des cocktails chimiques façonnés par l’évolution pour répondre à des contraintes écologiques très spécifiques.

The Conversation

Axel Touchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.04.2026 à 09:53

Pourquoi lire « J’ai mal » suffit à déclencher la douleur

Richard Palluel-Germain, Enseignant Chercheur en Psychologie, Université Grenoble Alpes (UGA)

Marcela Perrone-Bertolotti, Enseignante-Chercheuse au Laboratoire de Psychologie et NeuroCognition (UMR 5105, CNRS), Université Grenoble Alpes (UGA)

Vous salivez en lisant un menu et avez peur en lisant un thriller ? C’est normal. La science comprend peu à peu pourquoi.
Texte intégral (2404 mots)
Lire est une source d’émotions intenses… et réelles. Annie Spratt/Unsplash, CC BY

Au CHU de Grenoble, des patients épileptiques ont lu des phrases, comme « Je me cogne », « Je me brûle », « Je goûte » ou « Il me chatouille », pendant qu’on enregistrait leur activité cérébrale. Résultat : l’insula postérieure, une zone du cerveau qui est impliquée dans le ressenti de la douleur, la température ou le dégoût, s’active comme si le corps vivait réellement la scène. Voici un décryptage de cette étude récente, parue fin 2025 dans iScience.


Vous êtes tranquillement installé avec un bon livre. Survient alors une scène si tendue que vos muscles se crispent et votre cœur accélère. Ce basculement d’une suite de caractères d’imprimerie vers des sensations physiques est très fréquent et commence tout juste à être mieux compris par les neurosciences cognitives. Comprendre un mot, ce n’est pas seulement le voir – c’est activer tout un réseau de connaissances et d’expériences. Par exemple, dès l’instant où vous lisez le mot

… vous percevez sa couleur, la forme des caractères, ses lettres. Puis, presque instantanément, son sens émerge : un fruit rond, sucré ou acidulé, peut-être le souvenir de la tarte Tatin de votre mamie, voire même l’image de Newton sous son arbre ?

Comprendre un mot, au delà de le voir, c’est activer tout un réseau de connaissances et d’expériences. Comment ces sensations et ces images arrivent-elles dans nos cerveaux ? Le traitement cognitif lors de la lecture est-il un calcul purement abstrait, ou le sens des mots est-il ancré dans des expériences sensorielles ou motrices qui remontent à la surface ?

Pour répondre à ces questions, nous vous proposons de comprendre d’abord les enjeux théoriques majeurs en psychologie concernant l’accès à la signification des mots ; puis de plonger avec nous dans nos expériences.

Comment percevons-nous le monde ?

Les individus interagissent avec leur environnement par l’intermédiaire de multiples modalités d’entrée et de sortie. Une modalité est un canal par lequel nous faisons l’expérience du monde ou agissons sur celui-ci. Il peut s’agir d’une modalité sensorielle, comme la vision qui nous permet de percevoir les formes et les couleurs, la somesthésie, qui va nous aider à ressentir le toucher et la douleur, ou encore la modalité verbale, qui nous permet de traduire nos pensées en mots.

À chaque fois que vous interagissez avec une pomme, votre cerveau entre en ébullition. Si vous la regardez, vos zones visuelles s’activent ; si vous la croquez, ce sont vos zones gustatives qui prennent le relais… Ces activités sont dites « spécifiques » : elles sont les échos directs de vos sens. Puis grâce à des chefs d’orchestre comme l’hippocampe, ces sensations éphémères ne s’évaporent pas. Elles se transforment en traces mnésiques durables. Paradoxalement, bien que ces souvenirs soient bâtis à partir de vos sens, ils ne restent pas cantonnés dans les zones de la vision ou du toucher. Ils migrent vers des « zones de convergence » neutres, de véritables carrefours cérébraux où l’information est stockée à long terme. Jusqu’ici, tout le monde est plus ou moins d’accord.

C’est sur la suite que les chercheurs se divisent : comment réutilisons-nous ces souvenirs pour penser ou pour comprendre ce qu’on lit ?

Selon les théories dites « désincarnées », le cerveau fonctionne comme un ordinateur ultrapuissant. Une fois qu’une expérience (manger une pomme) est stockée, elle est transformée en un symbole abstrait, un code pur. Pour penser au concept de « pomme », votre cerveau n’aurait plus besoin de se souvenir de la sensation de la pomme ; il manipule simplement des données logiques, déconnectées de vos sens.

La théorie de la cognition « incarnée », à l’inverse, soutient que la pensée reste profondément ancrée dans le corps. Selon elle, on ne peut pas penser à une « pomme » sans que le cerveau ne réactive secrètement les zones sensorielles du toucher, de la vue, du goût, etc. Penser, ce serait en quelque sorte re-vivre l’expérience physique à basse intensité. Le sens d’un mot ne serait pas un code abstrait mais une simulation sensorielle.

Le débat reste ouvert : notre pensée est-elle une simulation sensorielle ou un pur calcul abstrait ? La réponse se cache peut-être dans la manière dont ces traces mnésiques s’animent lorsque nous lisons.

Observer comment le cerveau réagit lors de la lecture

Un élément de réponse est peut-être à trouver dans des travaux en imagerie par résonance magnétique fonctionnelle (IRMf).

En effet, ces recherches montrent que lire ou entendre un mot d’action comme « manger » active les régions motrices qui sont observées lors de l’action effective de manger.

De plus, il a été montré que si l’action concerne la main ou le pied, ce sont les zones motrices correspondantes qui s’activent – il y aurait une « somatotopie », c’est-à-dire une organisation cérébrale reflétant la topographie de notre corps. En clair : l’activité provoquée par des phrases évoquant le pied, la bouche ou la main chevauche précisément les zones motrices vouées à ces mêmes parties du corps.

Ces résultats semblent donc contredire l’hypothèse dite « désincarnée », selon laquelle les zones motrices somatotopiques ne devraient jouer aucun rôle dans la compréhension des phrases ou la représentation du sens des verbes.

De la même manière, les mots liés aux couleurs mobilisent les aires visuelles spécialisées, les mots liés aux odeurs activent les régions olfactives et les phrases décrivant des mouvements sollicitent les zones impliquées dans la perception du mouvement.


À lire aussi : Les « actions cachées » : quand des régions du cerveau liées à la motricité s’activent… alors qu’on ne bouge pas


Ces études présentent cependant des limites. L’IRM fonctionnelle ne permet pas notamment de mesurer précisément le moment où ces activations apparaissent. Or, la question du temps est centrale dans le débat entre cognition incarnée et cognition symbolique. En effet, selon l’hypothèse incarnée, l’activation des régions sensorimotrices surviendrait au moment même où le sens émerge.

Zoom sur l’insula grâce à une résolution temporelle d’exception

Pour pallier cette limite de l’IRM fonctionnelle, notre équipe s’est intéressée à la dynamique de l’activité cérébrale dans le cortex insulaire (résultats publiés fin 2025).

Nous nous sommes penchés spécifiquement sur cette zone, car le cortex insulaire, ou insula, constitue une véritable « tour de contrôle » de nos sensations. Il est subdivisé en plusieurs sous-régions, organisées en deux grandes zones qui coopèrent pour transformer un simple message nerveux en une expérience subjective. De manière schématique, on distingue l’insula antérieure et l’insula postérieure. Chacune de ces deux parties traite des informations distinctes en provenance du corps et de l’environnement.

Ainsi, l’insula postérieure est impliquée dans le traitement des signaux issus des organes internes (informations intéroceptives, telles que les battements du cœur ou les sensations viscérales) ainsi que des signaux liés à une menace pour l’intégrité des tissus (informations nociceptives, comme celles générées lors d’une coupure ou d’une brûlure). L’insula antérieure, quant à elle, présente une dimension plus intégrative et cognitive, contribuant à l’élaboration du sens des sensations, notamment à travers leur dimension émotionnelle et cognitive.


À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température


Pour évaluer la dynamique de l’activité cérébrale de l’insula, nous avons utilisé une méthode offrant l’une des meilleures précisions temporelles et spatiales disponibles chez l’être humain : l’électroencéphalographie intracrânienne (iEEG). L’iEEG est une méthode de neuro-imagerie dite invasive, utilisée uniquement pour des raisons médicales, impliquant l’exploration de l’activité électrique cérébrale à l’aide des électrodes implantées à l’intérieur du cerveau. Cette méthode permet ainsi une mesure de l’activité neuronale très précise d’un point de vue de la localisation et du décours temporel. Elle est notamment employée chez des patients souffrant d’une épilepsie pharmacorésistante (dont les crises ne peuvent être contrôlées par un médicament) afin de localiser la zone du cerveau responsable des crises.

C’est ainsi que nous avons collaboré avec 16 patients implantés avec des iEEG au CHU de Grenoble-Alpes pour raisons médicales. Nous leur avons demandé de lire de courtes phrases appartenant à différentes catégories sémantiques : abstraites (par exemple, « Je réfléchis »), liées à l’action (par exemple, « Je cours ») et liées à des sensations somesthésiques (par exemple, « Je me brûle »).

Nos résultats montrent que l’insula postérieure n’est pas seulement impliquée dans la perception de sensations ou de douleurs qui sont effectivement induites physiquement, mais peut également être sélectivement mobilisée lors du traitement de phrases décrivant des sensations somesthésiques, comme la douleur (par exemple, « Je me brûle »). Cette réponse neuronale survient très tôt dans le temps, environ 150 millisecondes après l’apparition du mot « brûle » sur l’écran. De manière intéressante, l’insula antérieure ne montre pas cette dynamique temporelle.

Cette temporalité extrêmement courte suggère que l’insula postérieure pourrait contribuer au traitement lexico-sémantique des phrases liées aux sensations corporelles. En d’autres termes, lors du traitement de phrases liées aux sensations, le cerveau simulerait des expériences sensorielles et douloureuses, réactivant partiellement des régions habituellement impliquées dans le traitement des sensations réelles.

L’implication de l’insula postérieure en réponse à de telles phrases apporte des éléments de réponse aux débats sur la cognition incarnée ou désincarnée, selon laquelle l’accès au sens de mots liés à des sensations implique une re-expérience partielle de l’état sensoriel correspondant.

Pour résumer, il existe donc un ensemble d’études, utilisant diverses méthodologies, remettant en question l’hypothèse dite « désincarnée » qui dominait les théories du langage jusqu’à la fin du XXᵉ siècle. Les zones cérébrales spécifiques à une modalité – incluant les cortex visuel, auditif et moteur –, dont on savait depuis longtemps qu’elles jouent un rôle crucial dans la perception et la production de la forme des mots, semblent désormais également impliquées dans l’instanciation du sens des mots.

Bien sûr de nombreuses questions restent en suspens. Une question cruciale est sans doute la suivante : comment les simulations spécifiques à une modalité sensori-motrice peuvent-elles représenter des concepts abstraits comme le temps, la justice ou le bonheur ? Les objets concrets (comme une pomme) ou les actions concrètes (comme lancer) peuvent être représentés par des simulations sensorielles ou motrices. Mais comment représenter des idées que nous ne pouvons ni percevoir avec nos sens ni manipuler avec nos muscles ?


Retrouvez notre vidéo basée sur cet article


Le projet LAMI (ANR-22-CE28-0026) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Richard Palluel-Germain a reçu des financements l'Agence Nationale de la Recherche, grant/ award number: LAMI-ANR-22-CE28-0026.

Marcela Perrone-Bertolotti a reçu des financements de l'Agence Nationale de la Recherche, grant/ award number: LAMI-ANR-22-CE28-0026..

PDF

15.04.2026 à 09:53

Des milieux pauvres en oxygène ont-ils permis l’émergence des photosymbioses qui ont changé la face la Terre ?

Christophe Robaglia, Professeur de biologie, Aix-Marseille Université (AMU)

Gaël Brasseur, Docteur en biologie, Centre national de la recherche scientifique (CNRS)

Loïc Quevarec, Chercheur en sciences de l'environnement, Centre national de la recherche scientifique (CNRS)

La photosynthèse a été acquise par le monde vivant grâce à des intégrations cellulaires successives en « poupées russes », les photosymbioses. Une nouvelle étude vient éclairer l’amorce de ce processus.
Texte intégral (1434 mots)

La photosynthèse fixe le carbone atmosphérique sous forme de molécules organiques essentielles à la vie et produit l’oxygène présent dans l’atmosphère et dans les mers. Elle a été acquise par le monde vivant grâce à des intégrations cellulaires successives en « poupées russes », les photosymbioses. En mimant les étapes précoces des photosymbioses, nous suggérons, dans notre article publié dans Current Biology, que l’oxygène serait un facteur déterminant pour les amorcer en milieu hypoxique (c’est-à-dire à faible teneur en oxygène) – la fourniture de carbone pouvant être un évènement secondaire.


En convertissant le rayonnement solaire en énergie utilisable par le monde vivant, la réaction de photosynthèse a profondément modifié l’ensemble de la planète Terre. La photosynthèse permet la conversion du carbone provenant du dioxyde de carbone (CO₂) atmosphérique en matière organique complexe, principalement sous forme de sucres qui alimentent une grande partie des formes de vie, dont les sociétés humaines. Une autre conséquence de la photosynthèse, qui a eu des conséquences majeures à l’échelle planétaire, est la production d’oxygène. Celle-ci est causée par la cassure de molécules d’eau qui initie le flux énergétique d’électrons qui permet la fixation du carbone en sucres.

La photosynthèse oxygénique est apparue chez un groupe particulier de bactéries, les cyanobactéries, dont des traces fossiles remontent à 3,8 milliards d’années et dont des descendants existent encore aujourd’hui. L’oxygène produit a permis le métabolisme aérobie, plus énergétique, qui a conduit à l’émergence d’organismes unicellulaires prédateurs. Certains ont intégré des cyanobactéries, bénéficiant à leur tour de la photosynthèse, c’est ce que l’on appelle la photosymbiose. Les lointains descendants de ces organismes sont devenus les algues et les plantes actuelles.

Des emboîtements en « poupées russes » secondaires et tertiaires

L’histoire ne s’arrête pas là puisque, à plusieurs reprises, d’autres organismes prédateurs ont intégré ceux déjà issus de la première photosymbiose, créant des emboîtements en « poupées russes » secondaires et tertiaires. Par exemple, les coraux, apparus il y a environ 500 millions d’années, sont des animaux hébergeant des organismes photosynthétiques unicellulaires issus d’une photosymbiose secondaire, les dinoflagellés.

Nous avons développé un système expérimental permettant l’évolution en laboratoire d’étapes précoces de la transition entre une relation prédateur-proies vers une relation hôte-photosymbionte. Il comprend un organisme unicellulaire prédateur du groupe des ciliés, Tetrahymena thermophila et des proies photosynthétiques. Les ciliés sont des unicellulaires, très abondants dans les écosystèmes aquatiques, dont font partie les paramécies. la cyanobactérie Synechoccoccus elongatus permet de mimer les événements de photosymbiose primaire et la microalgue verte eucaryote Chlorella variabilis permet de mimer les événements de photosymbiose secondaire.

Des cellules de Tetrahymena thermophila ont phagocyté des algues unicellulaires (Chlorella variabilis), celles-ci ne sont pas digérées et peuvent fournir de l’oxygène issu de la photosynthèse. Fourni par l'auteur

Grâce à la fluorescence naturelle des organismes photosynthétiques, nous avons combiné la microscopie et la cytométrie de flux, qui permet de quantifier et de trier des cellules suivant leur taille ou leur fluorescence pour observer le trajet des proies à l’intérieur des cellules prédatrices.

Une gloutonnerie extraordinaire

Nous avons ainsi caractérisé cette dynamique de la phagocytose jusqu’à l’élimination sous forme de boulettes fécales. Ceci a montré la gloutonnerie du prédateur unicellulaire qui peut ingérer jusqu’à 160 cyanobactéries ou 40 microalgues en moins d’une heure et les éliminer progressivement pendant plusieurs heures. Curieusement, de nombreuses proies sont rejetées sans être digérées totalement, voire pas du tout, suggérant qu’une transition simple entre l’état de proie et celui de symbionte intracellulaire ne nécessiterait que l’interruption de la rejection.

Afin d’évaluer les conditions environnementales permettant l’initiation d’une symbiose, nous avons placé le prédateur et ses proies dans des milieux pauvres en carbone assimilable ou en absence oxygène, et mesuré la survie du prédateur. Nous avons ainsi montré que les proies photosynthétiques favorisent considérablement la survie en milieu hypoxique alors qu’elles procurent un avantage faible, voire inexistant, dans un milieu pauvre en carbone. L’hypoxie induit aussi une condition physiologique atténuant sa propre cause, puisque le transit intracellulaire des proies est considérablement ralenti, favorisant ainsi l’utilisation de l’oxygène produit par la photosynthèse des proies.

Ce résultat n’était pas vraiment attendu, car il est généralement admis que le moteur principal des photosymbioses est la fourniture de carbone sous forme de sucres. Nous montrons donc que la production d’oxygène en conditions hypoxiques peut être une cause primaire de l’amorce d’une symbiose photosynthétique.

Les milieux hypoxiques ont été prépondérants pendant une grande partie de l’histoire de notre planète et sont toujours fréquents, en particulier dans les environnements aquatiques et marins. Leur incidence augmente même sous l’influence de perturbations anthropiques et de l’augmentation des températures. L’exploration de ces milieux pourrait donc révéler de nouvelles associations photosymbiotiques. Nous anticipons maintenant que le système expérimental que nous avons développé nous permettra d’étudier les mécanismes moléculaires et cellulaires stabilisant une proie en symbionte, qui restent largement inconnus. Au-delà de la compréhension d’un mécanisme fondamental d’association entre organismes ces travaux pourraient avoir des applications de biologie synthétique, pour construire, par exemple, de nouvelles associations productrices de biocarburants.

The Conversation

Christophe Robaglia a reçu des financements de l'ANR, Projet-ANR-21-CE20-0035 PHOCEE

Gaël Brasseur et Loïc Quevarec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

15.04.2026 à 09:53

Anticiper une éruption : ce que le réveil du piton de la Fournaise nous apprend

Zacharie Duputel, Sismologue, Chargé de recherche au CNRS, Observatoire Volcanologique du Piton de la Fournaise, Institut de physique du globe de Paris (IPGP)

Aline Peltier, Physicienne du globe (assimilée professeur des universités) spécialisée en géodésie et volcanologie, Institut de physique du globe de Paris (IPGP)

François Beauducel, Physicien du globe (assimilé professeur des universités) aux observatoires volcanologiques et sismologiques, Institut de physique du globe de Paris (IPGP)

Oryaëlle Chevrel, Chargée de Recherche en Volcanologie au Laboratoire Magmas et Volcans, Institut de recherche pour le développement (IRD); Université Clermont Auvergne (UCA); Centre national de la recherche scientifique (CNRS)

L’Observatoire volcanologique du piton de la Fournaise suit l’activité du volcan 24 heures sur 24, grâce à un réseau de plus de 100 instruments qui en détectent les moindres soubresauts afin de suivre et d’anticiper les éruptions.
Texte intégral (3657 mots)
Quelques heures après le début de l’éruption, le 13 février 2026, une fissure éruptive s’ouvre sur le flanc est-sud-est du piton de la Fournaise. La photo est réalisée par un drone survolant la zone dans le cadre du suivi de l’activité éruptive. ©OVPF-IPGP, Fourni par l'auteur

Le piton de la Fournaise, situé sur l’île de La Réunion, est souvent présenté comme l’un des volcans les mieux surveillés au monde. Depuis 1979, l’Observatoire volcanologique du Piton de la Fournaise suit l’activité du volcan 24 heures sur 24 grâce à un réseau de plus de 100 instruments qui enregistrent les moindres soubresauts du volcan : séismes, déformations du sol et émissions de gaz.

Cette surveillance étroite, même si elle ne permet pas une prédiction au sens strict – à savoir prédire la date et l’heure exactes du début d’une éruption –, permet de reconnaître les phases de réactivation nous renseignant sur une augmentation de la probabilité d’une éruption.


Le piton de la Fournaise a connu 86 éruptions depuis la création, en 1979, de l’Observatoire volcanologique qui suit son activité. Toutes ont pu être anticipées grâce à différents signaux avant-coureurs, comme l’augmentation de sismicité, l’inflation du volcan ou l’augmentation des flux de CO₂ dans le sol, permettant à l’observatoire de donner l’alerte aux autorités.

L’éruption du 13 février 2026 en est un bon exemple : pendant plusieurs semaines, le volcan a montré des signaux de réactivation, d’abord discrets et profonds, puis de plus en plus superficiels et clairs. Leur analyse montre qu’une éruption peut souvent être anticipée, même si son déclenchement final peut être extrêmement rapide. Cette éruption a connu trois phases d’activité : du 13 février au 25 mars, du 28 mars au 2 avril, puis du 8 au 12 avril 2026. Au 13 avril, elle est à l’arrêt, mais une reprise reste possible.

la lave traverse la route
Le 13 mars 2026, un mois après le début de l’éruption, la coulée de lave a traversé de la route nationale 2. ©OVPF-IPGP, Fourni par l'auteur

Des signaux d’abord discrets, puis de plus en plus clairs

À la suite de l’éruption de juillet à août 2023, le piton de la Fournaise était entré dans une phase de repos sans aucun signe d’activité ni en surface ni en profondeur, après plusieurs années particulièrement actives marquées par une à cinq éruptions par an depuis 2014.

Les instruments de l’observatoire ont enregistré les premiers signes de réveil à la mi-septembre 2025, avec de la sismicité profonde à environ 20 kilomètres de profondeur sous la région des Plaines (à 15 kilomètres au nord-ouest du sommet du volcan) qui a duré et augmenté jusqu’en novembre. Ces séismes sont le signe d’un mouvement de magma ou d’une montée en pression dans la partie profonde du système d’alimentation du volcan.

Cartographie des coulées de lave de l’éruption du 13 février 2026 – en date du 10 avril 2026. Les segments noirs indiquent la localisation des fissures éruptives. Les zones colorées indiquent le contour des coulées de lave à différentes dates indiquées en légende. Ces contours sont obtenus par interprétation d’images satellites. ©LMV-IRD-OSUL-Université de la Réunion -- OVPF-IPGP, Fourni par l'auteur

À partir du 22 novembre 2025, l’activité sismique est devenue plus superficielle et s’est rapprochée du sommet : d’abord entre 4 et 5 kilomètres de profondeur, puis entre 1 et 2,5 kilomètres, dans la zone du réservoir magmatique superficiel.

Fin novembre, l’inflation de l’édifice volcanique (c’est-à-dire le « gonflement » du volcan) confirmait la mise en pression du réservoir magmatique superficiel situé sous le sommet.

À ce stade, les signaux sismiques et géodésiques convergeaient et nous indiquaient clairement qu’une remontée de magma des profondeurs vers le système d’alimentation superficiel du volcan était en train de se produire. Nous avons donc alerté les autorités de cette situation, et le préfet de La Réunion a déclenché, le 28 novembre 2025, la phase de vigilance du plan Orsec « Piton de la Fournaise », le dispositif de gestion de crise en cas de menace éruptive. Ce niveau d’alerte signifie qu’une éruption est possible à moyen terme, c’est-à-dire dans les jours ou les semaines qui suivent. Les randonneurs sont ainsi informés qu’une éruption peut se produire, mais ils peuvent toujours accéder au sommet du piton de la Fournaise à condition de rester sur le sentier balisé.


À lire aussi : Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles


Le réveil du volcan

Le réveil du volcan s’est manifesté par trois intrusions magmatiques (injections de magma qui n’atteignent pas la surface, ce sont en quelque sorte des éruptions avortées) – les 5 décembre 2025, 1er janvier 2026 et 6 et 7 février 2026 – ainsi que par une première éruption brève, sur le flanc nord du volcan, du 18 au 20 janvier 2026.

Chacun de ces épisodes a été précédé par une crise sismique, c’est-à-dire un essaim de séismes très rapprochés dans le temps et l’espace, pouvant atteindre plusieurs centaines d’événements par heure, ainsi que par des mouvements rapides du sol, liés à la remontée du magma depuis le réservoir magmatique superficiel situé à environ deux kilomètres sous le sommet.

carte de sismicité
Séismes localisés du piton de la Fournaise entre le 1ᵉʳ septembre 2025 et le 13 février 2026. Chaque point correspond à un séisme dont la couleur indique la date, et la taille la magnitude du séisme. Le réveil du volcan a débuté par une activité sismique à environ 20 km sous les plaines à partir de mi-septembre 2025 puis, à partir de novembre, par une activité sous le sommet à environ 5 km de profondeur, suivie par une sismicité sommitale. ©WebObs/OVPF-IPGP, Fourni par l'auteur

Ces crises sismiques déclenchent des alarmes automatiques permettant d’avertir la personne d’astreinte de l’observatoire, et ainsi d’alerter rapidement les autorités, afin que le préfet puisse activer les niveaux correspondants du plan OrsecC : d’abord l’alerte 1, « éruption imminente », puis, lorsque l’éruption débute, l’alerte 2-1, « éruption en cours dans l’Enclos sans menace particulière », alerte 2-2, « éruption en cours dans l’Enclos avec menace pour les biens et l’environnement » ou alerte 2-3 « éruption en cours Hors Enclos avec menace pour les personnes, les biens et l’environnement ». L’Enclos étant une structure caldérique inhabitée où se sont produits 95 % des éruptions récentes.

Entre chacune de ces intrusions et éruptions, l’activité sismique et l’inflation de l’édifice ont perduré, traduisant la poursuite de la pressurisation du réservoir superficiel. Ces observations ont conduit, sous recommandation de l’observatoire, au maintien de la phase de Vigilance du plan Orsec de la part du préfet de La Réunion entre chacune de ces phases.

Des signaux précoces, mais un déclenchement parfois très rapide

Même si les éruptions du piton de la Fournaise sont toutes précédées par des crises sismiques, indiquant le début de la remontée finale du magma depuis le réservoir superficiel vers la surface, une éruption peut se mettre en place très rapidement.

Ainsi, contrairement à l’éruption de janvier 2026 dont la crise sismique avait duré 3,18 heures (soit 191 minutes), l’éruption du 13 février a débuté environ trente-cinq minutes seulement après le début de la crise sismique. Même si nous avons donné l’alerte rapidement aux autorités d’une probabilité forte de l’imminence d’une éruption, l’évacuation complète du volcan n’a pas pu être menée dans un délai si court. Certains randonneurs ont ainsi assisté au début de l’éruption au sommet avant d’être rapidement pris en charge par le peloton de gendarmerie de haute montagne. Les fissures étaient alors situées à 300 mètres du sentier autorisé.

Fissure éruptive sur le flanc est-sud-est du piton de la Fournaise quelques heures après le début de l’éruption, le 13 février 2026. Survol en drone réalisé dans le cadre du suivi de l’activité éruptive. ©OVPF-IPGP, Fourni par l'auteur

Le temps écoulé entre le début de la crise sismique et celui de l’éruption dépend de la localisation des fissures éruptives. Cela s’explique par le fait que les injections magmatiques au Piton de la Fournaise se déroulent en deux étapes : d’abord une migration verticale du magma depuis le toit du réservoir superficiel, puis, pour les éruptions latérales – excentrée par rapport au sommet – une migration latérale vers l’un des flancs du volcan. Plus le site éruptif est éloigné du sommet, plus cette propagation latérale prend du temps. À l’inverse, lorsque les fissures s’ouvrent au sommet, directement au droit du réservoir magmatique comme le 13 février 2026, la distance à parcourir par le magma est courte et la durée de propagation avant l’arrivée du magma en surface est en général inférieure à une heure, car le magma n’a essentiellement qu’un trajet vertical à parcourir dans un milieu déjà très fracturé.

Aujourd’hui, nous savons estimer la position approximative de l’injection magmatique au sein de l’édifice volcanique grâce à la localisation des séismes qu’elle provoque et aux sources de déformation. C’est ainsi qu’au cours de la crise sismique nous informons les autorités sur la zone où le magma se propage. En revanche, nous ne savons pas pour le moment prédire avec exactitude l’emplacement du futur site éruptif, ni l’heure précise du début de l’éruption, même si des avancées récentes permettent de prédire si une injection magmatique atteindra ou non la surface.


À lire aussi : Une IA pour détecter les signes avant-coureurs des séismes lents


De nouveaux outils pour mieux anticiper les éruptions et la propagation des coulées de lave

Ainsi, de nouveaux outils d’analyse, notamment fondés sur l’apprentissage automatique, permettent aujourd’hui de mieux détecter la sismicité et d’analyser en temps réel des mesures fines de déformation. Et le Piton de la Fournaise, véritable volcan-laboratoire, permet de tester ces nouvelles méthodes.

Parmi ces avancées, nous avons développé et implémenté à l’observatoire la méthode Jerk. Cette méthode est basée sur la détection de très faibles mouvements du sol enregistrés à près de 8 km du volcan, associés à l’ouverture brutale des fractures lors d’une injection magmatique. Elle permet d’émettre des alertes automatiques, fondées sur un unique paramètre associé à une valeur seuil, indiquant la probabilité forte qu’une injection de magma aboutisse à une éruption.

Ainsi, cette méthode a permis de lancer une alarme en temps réel avant 92 % des 24 éruptions étudiées entre 2014 et 2023, parfois plusieurs heures avant l’arrivée du magma en surface. Le système Jerk a très bien fonctionné lors des éruptions de janvier et février 2026.

Lors d’une éruption, nous cherchons également à mieux anticiper les trajectoires des coulées de lave, en simulant les zones probables de recouvrement par les laves. Ces cartes, en complément des relevés de terrain réalisés grâce à des survols par des drones opérés par l’observatoire volcanologique, le service départemental d’incendie et de secours et la gendarmerie, ont été mises à jour et partagées avec les autorités tout au long de la gestion de crise, notamment pour définir les zones potentiellement impactées par les coulées de lave.

Ainsi, durant les 48 heures précédant la coupure de la route nationale RN2 (route qui relie le sud au nord de l’île sur la côte est) par les coulées de lave, nous avons suivi au plus près, sur le terrain et grâce aux caméras de l’observatoire, la position des résurgences de lave afin d’affiner ces simulations. Ces simulations ont également été précieuses pour définir à l’avance le point d’arrivée de la lave à l’océan, dont l’interaction avec l’eau de mer a généré un panache de gaz acide.


Retrouvez notre vidéo basée sur cet article


Le projet LAVA (ANR-16-CE39-0009) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Oryaëlle CHEVREL a reçu des financements de l'Institut de Recherche pour le Développement et Agence nationale de la recherche (projet LAVA ANR-16 CE39-0009).

Aline Peltier, François Beauducel et Zacharie Duputel ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

14.04.2026 à 16:36

Créer des modèles de poumon en laboratoire pour mieux comprendre les maladies respiratoires

Isabelle Dupin, Professeure des universités, Université de Bordeaux

Modéliser le poumon humain est un défi majeur tant sa structure est complexe, mais en combinant différentes technologies, le résultat est prometteur et pourrait aider à travailler sur différentes maladies.
Texte intégral (1574 mots)
Les bronchioïdes peuvent aider à modéliser des pathologies pulmonaires et à chercher des pistes de traitement. CNordic Nordic/Unsplash, CC BY

Dans les années 2010, les biologistes ont appris à exploiter une propriété fascinante des cellules souches : leur capacité à s’auto-organiser. Placées dans les bonnes conditions, elles peuvent former spontanément des structures tridimensionnelles miniatures, que l’on appelle « organoïdes », qui reproduisent certains aspects structurels et fonctionnels d’un organe. Cette approche impacte profondément la recherche biomédicale. Mais, dans le cas du poumon, elle montre aujourd’hui ses limites et conduit à intégrer d’autres approches : pour progresser, il faut guider, voire contraindre, cette auto-organisation.


Modéliser le poumon humain reste un défi majeur. Sa structure en arbre, avec une vingtaine de divisions successives jusqu’aux alvéoles, ses propriétés mécaniques spécifiques liées aux mouvements respiratoires et, surtout, son exposition constante à l’air en font un organe à part. Pendant longtemps, les modèles animaux, notamment les rongeurs, ont servi de référence en recherche préclinique.

Mais ils présentent des différences importantes avec le poumon humain, notamment au niveau des voies respiratoires les plus petites, qui correspondent aux dix dernières divisions de l’arbre bronchique. Or ces zones sont justement atteintes très tôt dans certaines maladies comme la bronchopneumopathie chronique obstructive (BPCO). Cette maladie, principalement causée par le tabagisme, se caractérise par une obstruction progressive et permanente des bronches. Elle touche plus de trois millions de Français, et à ce jour, il n’existe pas de traitement pharmacologique pour guérir ces patients.

Dans le domaine de la santé respiratoire, les organoïdes ont apporté une alternative prometteuse. Ces modèles ont déjà fait leurs preuves. Dans la mucoviscidose, par exemple, des organoïdes dérivés de patients permettent de reproduire les défauts de sécrétion de fluides et de prédire l’efficacité de nouveaux traitements, une avancée majeure vers une médecine personnalisée.

Mais la promesse n’est pas totalement tenue : l’auto-organisation a ses limites. Les organoïdes bronchiques classiques ont une forme de sphères creuses, remplies d’eau et de mucus. Une géométrie bien éloignée de celle des bronches humaines, qui sont des tubes ramifiés. Plus problématique encore : leur architecture fermée rend difficile l’accès à leur intérieur. Stimuler ces modèles par des virus respiratoires, ou bien tester des médicaments inhalés, au cœur des traitements respiratoires, devient alors un défi technique.

Quand les cellules souches prennent forme

Plutôt que de s’en remettre uniquement aux capacités d’auto-organisation des cellules souches, nous avons décidé de guider leur organisation grâce à la bio-ingénierie. Notre pari : imposer une structure tubulaire aux cellules souches pour contraindre leur organisation spatiale, tout en préservant leur capacité à se différencier.

Concrètement, nous avons fabriqué, avec l’aide de nos collègues en biophysique, un moule tubulaire en hydrogel de très petite dimension (environ 0,5 millimètre de diamètre), dans lequel nous avons introduit les cellules souches, purifiées à partir de tissus pulmonaires humains.

Schéma de la fabrication d’un bronchioïde
Schéma de la fabrication d’un bronchioïde. Fourni par l'auteur

Les cellules ne se contentent pas de survivre dans cette structure : elles recréent progressivement un épithélium respiratoire fonctionnel, en présence d’un milieu de culture riche en facteurs de croissance. En quelques semaines apparaissent les cellules fonctionnelles de la bronche, les cellules ciliées et des cellules sécrétrices de mucus, le long de la paroi interne du tube. Les cils des cellules ciliées battent bien à la fréquence attendue, soit 15 battements par seconde ! Ces battements sont essentiels pour mettre en mouvement le mucus et assurer la défense de nos bronches face aux agressions de l’environnement.

Surtout, cette architecture ouverte change tout. Pour la première fois, il devient possible de perfuser ces structures et d’y faire circuler de l’air. Il est également possible de les infecter avec des virus respiratoires et d’observer la dynamique de l’infection.

Modéliser la maladie

L’intérêt de notre modèle, que nous avons appelé « bronchioïde », se révèle également lorsqu’on utilise des cellules issues de patients. En recréant des bronchioïdes à partir de cellules de patients atteints de BPCO, nous observons des altérations caractéristiques de la maladie : des battements ciliaires perturbés et une apparition excessive et précoce des cellules sécrétrices de mucus. Autrement dit, le modèle ne reproduit pas seulement des bronches saines, il peut aussi simuler des anomalies pathologiques.

Cette capacité ouvre des perspectives concrètes : mieux comprendre les mécanismes précoces des maladies respiratoires, telles que l’asthme ou la BPCO, tester des traitements dans des conditions plus réalistes et, à terme, adapter les thérapies à chaque patient.

Faut-il parler de « mini-bronches » en laboratoire ? On en est encore loin. Ces modèles restent incomplets. Ils ne contiennent pas, à ce stade, toute la diversité cellulaire du poumon, notamment les cellules de soutien, essentielles au fonctionnement de l’organe. Ils ne reproduisent pas non plus la complexité de l’arbre bronchique, avec son intégration dans les systèmes vasculaire, immunitaire et nerveux. Enfin, les aspects mécaniques dynamiques de la respiration sont généralement absents des modèles organoïdes.

Mais la combinaison de l’auto-organisation et des contraintes physiques imposées par la bio-ingénierie est prometteuse. Les possibilités offertes par cette discipline sont quasiment infinies.

Une équipe grenobloise a récemment réussi à intégrer des organoïdes dans des dispositifs microfluidiques, qui sont des supports contenant des canaux très fins. Ceci a permis de vasculariser les organoïdes, une avancée majeure pour apporter suffisamment d’oxygène et de nutriments à ces structures tridimensionnelles. Une équipe suisse a, quant à elle, reproduit un réseau d’alvéoles grâce à une membrane biologique souple et étirable, qui imite les mouvements de respiration.

Avec l’espoir un peu fou de pouvoir développer grâce à ces outils une médecine plus prédictive et mieux adaptée aux patients !

The Conversation

Isabelle Dupin a reçu des financements de l'Agence Nationale de la Recherche (ANR), de la Région Nouvelle Aquitaine et de l'European Research Concil (ERC, project KINTSUGI, 101170266). Les points de vue et opinions exprimés sont toutefois uniquement ceux de l’autrice et ne reflètent pas nécessairement ceux de l’Union européenne ni de l'European Research Concil. Ni l’Union européenne ni l’autorité de financement ne peuvent en être tenues responsables.

PDF

13.04.2026 à 16:45

Comprendre les « modèles de fondation », ces nouvelles infrastructures numériques à la base de nombreuses applications d’IA

Sabrine Mallek, Professeure Associée en Transformation Digitale, ICN Business School

La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes.
Texte intégral (2604 mots)

La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes. C’est un des secrets qui permet de développer des applications si sophistiquées et qui restent accessibles aux non-spécialistes.


Les systèmes d’apprentissage automatique ne se limitent plus à des outils conçus pour une seule tâche, comme la traduction ou la recommandation de produits. Une transformation majeure tient à l’émergence des foundation models, ou modèles de fondation : de très grands modèles entraînés sur des volumes massifs de données pour acquérir des connaissances générales, réutilisables dans de nombreux contextes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent, pour l’instant, à nuancer les promesses spectaculaires. Comment fonctionnent-ils ? Comment sont-ils régulés et quels sont les obstacles à une adoption qui porte ses fruits ?

Comment fonctionnent les modèles de fondation ?

Les modèles de fondation reposent sur un principe simple : apprendre des structures générales à partir de très grandes quantités de données hétérogènes – textes, images, codes, sons, vidéos, bases de données ouvertes et contenus sous licence, ou une combinaison de ces types de données.

L’objectif de l’entraînement initial est de permettre au modèle d’identifier des régularités statistiques dans les données et de construire des représentations générales du langage, des images ou d’autres formes d’information. Sur le plan technique, ces systèmes utilisent le plus souvent des architectures de réseaux de neurones profonds. Durant la phase d’entraînement, le modèle apprend à prédire une partie manquante de l’information, par exemple le mot suivant dans une phrase ou une portion d’image, en ajustant progressivement des milliards de paramètres. Ce processus d’apprentissage, appelé pré-entraînement, nécessite des ressources de calcul considérables et constitue la base du caractère « généraliste » de ces modèles.


À lire aussi : Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine


Une fois pré-entraîné, le modèle de fondation peut être adapté à des usages spécifiques, allant de l’analyse de sentiment ou la réponse à des questions jusqu’à des tâches plus techniques, comme l’assistance au diagnostic médical.

Cette adaptation peut se faire grâce à un ajustement supplémentaire appelé fine-tuning, par exemple en nourrissant un modèle généraliste d’imagerie médicale avec des radiographies spécifiques à une maladie permettant à l’outil d’apprendre à prédire l’évolution d’une pathologie précise.

Elle peut aussi passer par l’apprentissage avec retour humain (reinforcement learning with human feedback), qui consiste à faire évaluer plusieurs réponses par des humains pour inciter le modèle à privilégier des formulations claires et sécurisées plutôt que de simples suites de mots statistiques.

Enfin, cette adaptation peut s’opérer simplement par prompting, en guidant le modèle par des instructions textuelles du type : « Résume ce document en trois points. »

C’est cette capacité à être réutilisés dans de nombreux contextes qui explique pourquoi ces systèmes sont qualifiés de « modèles de fondation » : ils servent de base technologique à une large gamme d’applications. Par exemple, GPT-4 ou GPT-5 servent déjà de socle opérationnel à de nombreuses applications, à l’image de ChatGPT, tout en conservant un potentiel d’extension encore largement ouvert.

infographie décrivant l’entraînement puis la spécialisation de modèles issus de modèles de fondation
Les modèles de fondation servent de base technologique à une large gamme d’applications. Cette infographie décrit l’entraînement puis les applications spécifiques issues de modèles de fondation. Sabrine Mallek, Fourni par l'auteur

Comprendre l’écosystème : comment modèles de fondation, LLM et IA générative s’articulent-ils ?

Concrètement, les modèles de fondation ne sont pas une application en soi, mais une infrastructure de base. Ils marquent une évolution récente de l’intelligence artificielle (IA), rendue possible par la combinaison de trois facteurs : l’explosion des données, les progrès des capacités de calcul et l’apparition de nouvelles architectures d’apprentissage.

Un tournant majeur intervient en 2017 avec l’architecture des transformers. Cette innovation permet de mieux capter les relations dans les données (notamment le langage), et devient la base de modèles comme BERT ou GPT. Lorsqu’un modèle de fondation (une expression née officiellement en 2021) est spécialisé dans le traitement du langage, on parle alors de grand modèle de langage (LLM). Et c’est sur cette base que se développent aujourd’hui les usages les plus visibles : ceux de l’IA générative, capable de produire du texte, des images, des vidéos, du son ou du code – qui est devenue grand public et commercialement viable avec le lancement de ChatGPT, fin 2022, marquant le passage de l’infrastructure à l’usage de masse.

Le rapport entre ces modèles de fondation et l’IA générative peut être comparé à celui d’un « moteur » par rapport à sa « fonction ». Le modèle de fondation est ce moteur puissant, pré-entraîné sur des données colossales et conçu pour être adaptable à une multitude de tâches. L’IA générative, quant à elle, est la fonction d’application finale : c’est la capacité de ce moteur à produire un contenu inédit.

Concrètement, si l’on prend un modèle de fondation comme GPT-4 (le moteur), on peut l’utiliser pour analyser des milliers d’avis clients (une tâche purement analytique). Mais lorsqu’on lui demande de rédiger un e-mail, on active alors sa fonction d’IA générative. De la même manière, dans le domaine visuel, un modèle de fondation entraîné sur des millions d’images peut servir de moteur aussi bien pour détecter une anomalie sur une radiographie médicale (classification) que pour dessiner un paysage imaginaire à partir d’une simple phrase (IA générative).

Imbrication entre infrastructure technique, spécialisation linguistique (LLM) et fonction de génération. La génération est une fonction parmi d’autres (c’est une application pratique des modèles de fondation lorsqu’on leur demande de générer du contenu). Sabrine Mallek, Fourni par l'auteur

Promesses d’efficience et réalités de terrain

Cette polyvalence signifie que les modèles de fondation tendent à devenir une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet : au lieu de reconstruire un modèle d’IA spécifique propre à chaque projet, les acteurs économiques se branchent directement sur ces briques généralistes existantes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent à nuancer les promesses de gains de productivité spectaculaires. Beaucoup d’entreprises peinent encore à dégager un retour sur investissement évident pour l’automatisation administrative, constatant souvent que les modèles de fondation ne réduisent pas la charge de travail, mais l’intensifie : les employés doivent désormais consacrer davantage d’énergie à vérifier et à corriger les résultats.

Par ailleurs, l’assistance aux experts (aide au code, à la décision) se heurte à une « frontière technologique en dents de scie » : face à une tâche donnée, le modèle peut exceller, mais s’avérer contre-productif s’il est utilisé aveuglément en dehors de sa zone de compétence.

Néanmoins, ces modèles permettent de créer de nouveaux services comme la personnalisation de la relation client à grande échelle. Mais pour libérer ce potentiel, la simple mutualisation technologique ne suffit pas. Il faut impérativement repenser l’organisation du travail en formant les employés pour leur donner l’autonomie nécessaire face à la machine.

Les débats européens sur la régulation

En Europe, les enjeux se sont cristallisés dans les discussions autour de l’AI Act, qui introduit une catégorie spécifique pour les « systèmes d’IA à usage général », dont les modèles de fondation sont l’exemple emblématique. L’idée est de ne plus réguler uniquement les cas d’usage finaux, mais aussi ces briques génériques qui irriguent tout l’écosystème.

La Commission nationale de l’informatique et des libertés (Cnil) s’est également saisie de ces enjeux à travers un plan d’action consacré à l’intelligence artificielle, visant à accompagner l’innovation tout en garantissant la protection des droits fondamentaux. Elle met notamment l’accent sur la protection des données utilisées pour entraîner les modèles, la transparence des systèmes ainsi que le développement d’IA respectueuses de la vie privée.

Dans ce contexte, l’entraînement de ces modèles soulève aussi des défis importants au regard du règlement général sur la protection des données (RGPD), notamment concernant l’origine des données utilisées, la possibilité pour les individus d’exercer leurs droits sur leurs données et la capacité technique des systèmes à supprimer ou de ne plus exploiter certaines informations après leur intégration dans l’apprentissage. Pour les entreprises, cela signifie que ces technologies doivent être intégrées dans des démarches structurées de conformité, de documentation et de gestion des risques.

La question devient donc : dans quelles conditions utiliser les modèles de fondation ? Cela implique une gouvernance claire entre fournisseurs, intégrateurs et utilisateurs, des exigences de transparence et de documentation, l’anticipation des impacts sur l’emploi à travers la formation et la reconversion ainsi qu’une articulation avec les politiques de responsabilité sociétale des entreprises (RSE), afin d’évaluer leurs effets sociaux, organisationnels et environnementaux.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.04.2026 à 17:45

Une nouvelle piste pour stocker l’énergie solaire… et fournir de l’électricité quand le soleil s’absente

Vera Moerbeek, Doctorante en physique, Centre national de la recherche scientifique (CNRS); Université de Perpignan Via Domitia

L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le soleil brille. Certains dispositifs pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, et de récupérer l’énergie sous forme d’électricité.
Texte intégral (2207 mots)

L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le soleil brille. Certains dispositifs photovoltaïques pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, puis de récupérer l’énergie sous forme d’électricité.


Il est devenu courant de voir des panneaux solaires sur les toits des maisons et des hangars, grâce à la baisse du prix des cellules en silicium et à leur taille compacte. Cependant, l’énergie solaire est intermittente, comme beaucoup d’autres types d’énergie renouvelable. Lors des périodes de production maximale, comme les journées estivales ensoleillées, le réseau d’électricité sature d’énergie, tandis que lors des périodes de faible production, comme le soir et en hiver, l’offre diminue alors même que la demande est la plus élevée. C’est pourquoi, afin de garantir la disponibilité de l’énergie à la demande, des solutions de stockage doivent être intégrées au réseau.

La technologie la plus utilisée pour le stockage à l’échelle du réseau électrique est le stockage hydroélectrique par pompage, mais le nombre de sites favorables en France est limité et déjà largement exploité, du fait des contraintes géographiques.

Une autre technologie courante est la batterie électrochimique : l’exemple le plus commun est celui des batteries lithium-ion des téléphones portables et des voitures. À plus grande échelle, des entreprises, par exemple Enedis, commencent à investir dans de grands parcs de batteries pour soutenir le réseau électrique. La technologie dominante pour ces très grandes batteries est la technologie lithium-fer-phosphate.

En grande partie pour cette raison, l’Agence internationale de l’énergie (IEA) dans un report récent prévoit une croissance de 42 % de la demande de lithium en 2040 par rapport à 2020. Or, l’extraction du lithium soulève des enjeux géopolitiques et humanitaires. Récemment, la possibilité d’ouvrir d’une mine dans l’Allier a intensifié le débat en France : si ces mines ont des impacts négatifs sur l’eau potable, la biodiversité et les sols, peut-on réellement soutenir qu’elles nous aideraient vers un futur durable ?

Peut-on stocker l’énergie autrement et assurer la stabilité du réseau électrique ?

Le stockage thermique : une alternative aux batteries électrochimiques

Les barrages hydroélectriques et les batteries électrochimiques ne constituent pas la seule solution pour le stockage de l’énergie. Une alternative est le stockage thermique, où l’énergie est stockée sous forme de chaleur.

C’est par exemple le principe des chauffe-eau solaires. À plus grande échelle, le stockage thermique est surtout appliqué en combinaison avec des centrales solaires à concentration (CSP), comme le Crescent Dunes Solar Energy Project aux États-Unis ou l’Andasol Solar Power Station en Espagne. Cependant, le CSP reste une technologie marginale, car ces grandes centrales nécessitent un investissement initial très important et les coûts de maintenance sont élevés.

Dans ce type d’installations, la première étape est la conversion d’énergie solaire en chaleur au moyen de grands miroirs – soit paraboliques, soit petits, plats et suivant le soleil – qui concentrent le rayonnement solaire pour chauffer un fluide (conventionnellement du sel fondu). La chaleur est convertie en électricité lors de la deuxième étape, où la chaleur stockée dans le fluide entraîne une turbine.

Malheureusement, la conversion de la chaleur en énergie utile, comme l’électricité, est particulièrement difficile : l’efficacité de la conversion est limitée fondamentalement par ce qu’on appelle « la loi de Carnot ». Par exemple : à 300 °C, le maximum théorique de l’efficacité est environ 50 %, ce qui signifie que l’efficacité réelle est encore plus basse. En comparaison, l’efficacité des batteries lithium-ion, qui ne passent pas par la case « chaleur », peut surpasser 90 %.

« Détourner » les cellules photovoltaïques pour convertir le rayonnement de la chaleur en électricité

Mais il existe une autre façon de convertir la chaleur en électricité : en utilisant le rayonnement émis par tout objet chaud (qui dépend de la température).

schéma
Fonctionnement d’un système thermophotovoltaïque. Vera Moerbeek, Fourni par l'auteur

Tandis que les cellules photovoltaïques traditionnelles que l’on voit sur les toits et dans les fermes solaires convertissent le rayonnement solaire lui-même, l’idée de ce qu’on appelle les systèmes thermophotovoltaïques (abréviés TPV) est de récupérer le rayonnement infrarouge émis par n’importe quel objet chauffé – et qui stocke donc l’énergie sous forme de chaleur – et de la convertir en électricité.

Par exemple, le silicium fond à 1 414 °C et le graphite peut être chauffé jusqu’à plus de 2 000 °C. Ces matériaux émettent alors un rayonnement infrarouge, que l’on peut collecter grâce à des cellules photovoltaïques spéciales (comme des cellules en indium-gallium-arséniure). À de telles températures, la limite de Carnot est repoussée jusqu’à 83 % et 87 % respectivement. En pratique, les expériences réalisées au MIT, aux États-Unis, ont démontré une efficacité de plus de 40 %.

deux schémas
Deux types de stockage thermique en utilisant le rayonnement thermique d’un réservoir chauffé soit par de l’électricité intermittente, soit directement par le soleil. Vera Moerbeek, Fourni par l'auteur

Différents dispositifs thermophotovoltaïques

Le dispositif le plus mature à ce jour n’utilise pas le rayonnement solaire pour chauffer le milieu de stockage, mais simplement l’électricité. Il est donc similaire à une batterie lithium-ion, mais effectue des conversions d’énergie successives « électricité → chaleur → électricité » au lieu de « électricité → énergie chimique → électricité ». De tels dispositifs promettent d’être compétitifs en raison de leurs coûts relativement faibles et aujourd’hui commencent à être commercialisés à l’échelle industrielle.

Il serait encore plus intéressant de chauffer le milieu de stockage directement avec le rayonnement solaire, comme pour le CSP conventionnel, afin que le système devienne une source d’énergie renouvelable non intermittente.

schéma et photo du prototype expérimental du laboratoire PROMES
Schéma et photographie du dispositif expérimental du prototype SISTPV au laboratoire PROMES, au Grand Four Solaire d’Odeillo (Pyrénées-Orientales). Les miroirs de suivi (situés à l’extérieur du bâtiment, en dessous de l’expérience) dirigent le rayonnement solaire vers la trappe, puis vers le miroir parabolique, qui le concentre afin que le point focal soit localisé sur l’expérience (qui correspond au schéma à droite de l’image présentée auparavant). Vera Moerbeek, Fourni par l'auteur

Pour cette raison, nous avons réalisé le premier prototype expérimental de ce dispositif, dont le milieu de stockage est chauffé à l’aide d’un rayonnement solaire concentré, et suit donc une conversion « solaire → chaleur → électricité ». Un avantage important de notre dispositif est qu’il pourrait être rentable à une échelle beaucoup plus réduite que les systèmes CSP actuels, du fait du remplacement de la turbine par les cellules thermophotovoltaïques (TPV).

Cependant, l’efficacité globale de ce nouveau type de batterie thermique (soleil → chaleur → électricité) — et notamment l’efficacité des cellules thermophotovoltaïques elles-mêmes (pour la conversion finale de chaleur en électricité) — doit encore être améliorée au laboratoire, afin que cette technologie devienne plus compétitive.

The Conversation

Vera Moerbeek a reçu des financements de l'École doctorale "énergie et environnement" (ED305).

PDF

08.04.2026 à 10:31

Palimpseste d’Archimède : comment une page perdue a refait surface à Blois

Victor Gysembergh, Directeur de recherches au CNRS, Sorbonne Université

Un feuillet du palimpseste d’Archimède, perdu depuis des décennies, a été identifié par hasard à Blois. Avec la numérisation des collections, combien de trésors restent encore invisibles ?
Texte intégral (2880 mots)
Le prophète Daniel entouré de deux lions, enluminure sur le recto de la page retrouvée à Blois. Musée des beaux-arts de Blois, Inv. 73.7.52/IRHT-CNRS

On la pensait perdue à jamais : une page du palimpseste d’Archimède vient d’être retrouvée au Musée des beaux-arts de Blois, dans le Loir-et-Cher. Le chercheur qui a identifié ce feuillet issu du manuscrit du Xᵉ siècle rassemblant les traités du géomètre raconte sa découverte par un hasard fécond (mâtiné d’une bonne mémoire) et propose des pistes pour retrouver deux autres feuillets encore manquants.


Le 9 mars 2026, le CNRS a annoncé que j’avais identifié, dans les réserves du Musée des beaux-arts de Blois, un feuillet du palimpseste d’Archimède considéré comme perdu. Je voudrais revenir ici sur cette histoire et sur ce qu’elle révèle : dans le silence des collections publiques et privées, avec la numérisation massive, combien de trésors restent encore invisibles, faute d’avoir été cherchés ?

Le palimpseste d’Archimède est un manuscrit du Xᵉ siècle qui rassemble sept traités du géomètre de Syracuse – dont la Méthode des théorèmes mécaniques, seul texte où il explique comment il a trouvé ses résultats avant de les démontrer. Héritier, comme beaucoup de textes antiques, d’une chaîne inconnue de recopies remontant aux originaux perdus d’Archimède (IIIᵉ siècle avant notre ère), il est le plus ancien exemplaire conservé de ses textes et, pour certains, le seul témoin. En 1229, des moines ont effacé ce trésor – probablement à l’aide d’une pierre ponce – pour y réécrire un livre de prières. Le parchemin, fabriqué dans ce cas à partir de peau de chèvre ou de mouton, valait cher (ce seul codex contenait l’équivalent d’une cinquantaine de bêtes). C’est ainsi que naissent les palimpsestes, du grec palimpsêstos (« gratté de nouveau »).

La palimpseste d’Archimède
La palimpseste d’Archimède. Archimedespalimpsest.org

1906 : la première redécouverte

C’est le philologue danois Johan Ludvig Heiberg qui redécouvrit le texte d’Archimède à Constantinople en 1906 en déchiffrant à l’œil nu le texte effacé, puis qui fit photographier le manuscrit à la lumière blanche et ultraviolette. La découverte fit la première page du New York Times. Ses photographies, conservées aujourd’hui à la Bibliothèque royale du Danemark, ainsi que leur déchiffrement par Heiberg, restèrent longtemps la seule trace documentaire du codex, car le palimpseste disparut peu de temps après.

Il ne refit surface que plusieurs décennies plus tard, dans une collection privée française, avant d’être vendu aux enchères chez Christie’s en 1998 pour deux millions de dollars.

Une page du palimpseste d’Archimède
Une page du palimpseste d’Archimède. Archimedespalimpsest.net

Le nouveau propriétaire le confia au Walters Art Museum de Baltimore, aux États-Unis, où, au début des années 2000, des expériences d’imagerie multispectrale – consistant à photographier le manuscrit sous différentes longueurs d’onde de lumière (visible, ultraviolette, infrarouge, puis rayons X) pour en tirer des informations complémentaires invisibles à l’œil nu – permirent de lire beaucoup mieux les traités d’Archimède, et de découvrir des textes qu’aucun œil humain n’avait lus depuis des siècles – dont un commentaire aux Catégories d’Aristote et un discours de l’orateur Hypéride. Mais trois feuillets parmi les 177 recensés par Heiberg avaient disparu entre-temps. Depuis lors, ils étaient considérés comme perdus à jamais.

Une blague de bureau qui permet de retrouver un trésor

En octobre 2025, je discutais avec des collègues du fait que Blois avait longtemps abrité une partie des bibliothèques royales de France. Par jeu, je lançai : « Tiens, cherchons s’il y a un palimpseste à Blois. » Je saisis les mots dans Arca, la bibliothèque numérique de l’Institut de recherche et d’histoire des textes. Une notice apparut : un parchemin au Musée des beaux-arts de Blois, inventaire 73.7.52.

En regardant les images numérisées, quelque chose dans l’écriture me frappa. C’est une déformation professionnelle : les années passées à fréquenter les manuscrits anciens développent une sorte de mémoire visuelle involontaire, comme on peut reconnaître une chanson à partir des premières secondes. De surcroît, l’une des faces portait une figure géométrique. Je déchiffrai le texte lisible : un passage du De la sphère et du cylindre. Je sortis les photographies de Heiberg. La comparaison fut sans appel. L’écriture, les figures, le texte lui-même : tout concordait. J’avais devant moi le feuillet 123 du palimpseste d’Archimède.

Ce que dit la page – et ce qu’elle cache

Le feuillet contient les propositions 39 à 41 du premier livre du traité. Une face est lisible ; l’autre est recouverte d’une enluminure représentant le prophète Daniel entre deux lions. Celle-ci fut vraisemblablement exécutée vers 1942 à l’instigation de son propriétaire Salomon Guerson, dans une tentative désespérée d’en augmenter la valeur pour la vendre afin d’échapper aux persécutions antisémites.

Blois, Musée des beaux-arts, Inv. 73.7.52 (Photograph IRHT-CNRS) = Archimedes palimpsest (olim Constantinople, Metochion tou Panagiou Taphou, shelfmark 355), p. 123r
Le recto de la page retrouvée. Musée des beaux-arts de Blois, Inv. 73.7.52/IRHT-CNRS
Le verso de la page du palimpseste d’Archimède retrouvée par hasard à Blois
Le verso de la page du palimpseste d’Archimède retrouvée par hasard. Musée des beaux-arts de Blois, Inv. 73.7.52/IRHT-CNRS

La science moderne sait regarder à travers ces obstacles. Dans les prochains mois, j’espère mener une campagne d’imagerie multispectrale puis de cartographie par fluorescence de rayons X – une technique qui détecte les résidus métalliques de l’encre ancienne sous des couches opaques, sans endommager le parchemin. Ces méthodes, bien plus performantes qu’au début des années 2000, pourraient aussi permettre de relire des passages du palimpseste restés illisibles lors de la campagne de Baltimore.

Deux feuillets manquent encore

Les trois feuillets disparus ont probablement été découpés en France vers 1942. Si l’un d’eux a survécu dans les réserves d’un musée et a pu être identifié en quelques secondes de recherche numérique, les deux autres peuvent très bien avoir suivi des trajectoires comparables.

Le feuillet que j’ai reconnu avait été légué au musée en 1973 par le collectionneur André Frank (on ignore comment il l’avait acquis) et n’avait pas été identifié pour ce qu’il était. Les deux autres feuillets se trouvent peut-être dans une bibliothèque, un musée, une collection privée – en France ou dans les pays voisins. Des parchemins grecs avec, d’un côté, plusieurs couches de texte et peut-être aussi des figures géométriques et des enluminures, de l’autre. Peut-être exactement ce que vous possédez ?

L’aide possible des collectionneurs

Les manuscrits anciens, en particulier les palimpsestes, sont rares et précieux. Mais la numérisation ne les endommage pas, et augmente au contraire leur valeur en révélant leurs contenus. Elle permet qu’une reproduction soit déposée dans une base de données accessible.

Le feuillet de Blois a été retrouvé parce qu’André Frank l’avait légué au musée, et parce que l’institution l’avait catalogué et numérisé – sans même savoir ce qu’elle possédait. Sans cette infrastructure de partage, ma recherche dans Arca n’aurait rien donné.

Les parchemins sont aussi fragiles : humidité, variations de température, matériaux acides peuvent en quelques décennies effacer ce que vingt siècles ont préservé. L’IRHT-CNRS, la BNF, les Archives nationales ou l’équipe du projet ERC PALAI, dont je suis responsable, peuvent conseiller gratuitement tout collectionneur souhaitant protéger ses biens.

L’appui indispensable des chercheurs

Il serait injuste de faire reposer sur les seuls collectionneurs la responsabilité des trésors qui dorment. Des milliers d’établissements (bibliothèques municipales, musées de province, fonds d’archives ecclésiastiques, collections universitaires) conservent des manuscrits que personne n’a regardés depuis trop longtemps. Les raisons de cette sous-exploration sont compréhensibles : pression à la publication, spécialisation croissante, difficulté à financer des recherches exploratoires. On ne dépose pas un projet ANR sur une recherche d’aiguille dans une botte de foin.

Et pourtant, c’est précisément ce type de recherche – patiente, buissonnière, fondée sur une curiosité sans objet défini – qui produit les découvertes les plus inattendues. Consacrer quelques heures par semaine à explorer des catalogues numériques et à écrire aux conservateurs de fonds peu consultés n’est pas du temps perdu.

Nous ne savons pas ce que nous avons. La numérisation des collections publiques est une révolution silencieuse (mais elle s’arrête aux portes des collections privées). L’œuvre d’Archimède a survécu par une série d’accidents heureux : des copistes minutieux, un philologue danois attentif, un musée qui a conservé sans le savoir un fragment de génie. À chaque maillon, quelqu’un a fait le bon choix – ou le hasard a bien fait les choses. Aujourd’hui, nous n’avons plus besoin du hasard. Il ne manque que la volonté. Et parfois, un coup de fil.


Pour signaler un palimpseste ou demander un conseil en conservation, écrire à : cnrs-palai@cnrs.fr.

The Conversation

Victor Gysembergh a reçu des financements de Sorbonne Université, la Mairie de Paris et l'Union européenne (ERC grant PALAI, n° 101170952).

PDF

07.04.2026 à 17:33

Qu’est-ce qu’un portefeuille européen d’identité numérique ? Quels en seront les usages, les avantages… et les risques ?

Maryline Laurent, Professeur Directrice du département RST, Télécom SudParis – Institut Mines-Télécom

Claire Levallois-Barth, Professeur en droit à IMT Atlantique, titulaire des chaires 'Valeurs et Politiques des Informations Personnelles' et 'Économie des Communs de Données'., Institut Mines-Télécom (IMT)

Le portefeuille européen d’identité numérique, ou PEIN, doit faciliter les démarches des citoyens et des résidents de toute l’Union européenne. Comme pour les autres applications numériques, ces portefeuilles ne sont pas sans risques.
Texte intégral (2952 mots)

Le portefeuille européen d’identité numérique, ou PEIN, doit faciliter les démarches des citoyens et des résidents dans toute l’Union européenne. Comme les autres applications numériques, ces portefeuilles ne sont pas sans risques, et leur déploiement est encadré. Il devra aussi être contrôlé.


Nombre d’entre nous ont déjà entendu parler de France Identité, voire l’utilisent. Ce service offre une identité numérique nationale régalienne qui, d’ici la fin de l’année 2026, pourra être utilisée dans toute l’Union européenne – une fois qu’elle aura été mise en conformité avec le règlement européen eIDAS 2, qui établit le cadre européen relatif à une identité numérique.

Fin 2026, France Identité deviendra un portefeuille européen d’identité numérique (PEIN). Il permettra à chaque citoyen et résident européen de bénéficier d’un accès simplifié à différents services numériques en Europe, qu’ils soient étatiques (établir une procuration de vote par exemple) ou commerciaux (envoyer sa carte grise à son garagiste).

L’objectif est de lutter contre l’augmentation constante des usurpations d’identité et des cyberattaques, comme le phishing (ou hameçonnage) qui consiste à envoyer des SMS ou des mails frauduleux destinés à tromper la victime et à l’inciter à communiquer ses données personnelles et/ou bancaires.

À cette fin, le PEIN permettra à son utilisateur d’exercer un contrôle sur son identité et ses données, et d’accéder à des services numériques transfrontières publics et privés. Comme la plupart des applications numériques, l’introduction de ces portefeuilles comporte aussi des risques, notamment de vols d’identité, de fracture numérique ou d’ingérence étrangère.

À retenir

  • Un portefeuille d’identité numérique pourra contenir les données d’état civil et des justificatifs électroniques (permis de conduire, carte vitale, prescription médicale, titres de transport, factures, diplômes…) afin de faciliter les procédures et les échanges d’informations au sein de l’UE.
  • Les pays de l’Union européenne doivent proposer au moins un portefeuille d’identité numérique à leurs citoyens et résidents d’ici la fin de l’année 2026. Ceux-ci pourront être publics ou privés, avec des fonctionnalités comme la signature électronique gratuite.
  • Avant leur mise en service à l’échelle européenne, les portefeuilles devront être certifiés par l’État membre qui les émet, ce qui devrait limiter les risques en matière de cybersécurité.
  • Comme toujours, ces garanties ne peuvent être absolues : des contrôles effectifs et des sanctions dissuasives devront être mis en place. Il restera essentiel de disposer d’une alternative physique aux documents numériques afin de préserver la résilience et la souveraineté d’un État en cas de cyberattaque, mais aussi de permettre à chaque citoyen de choisir ou non d’utiliser un PEIN.

Un portefeuille, pour quelle utilisation ?

Le PEIN permettra à son utilisateur de s’identifier auprès des services publics ou privés, notamment commerciaux, dans toute l’Union européenne (UE). Un citoyen français équipé de ce portefeuille pourra ainsi interagir avec l’administration allemande au même titre qu’un citoyen allemand, sans avoir à effectuer de démarches supplémentaires.

En fonction des besoins de son ou sa titulaire, le PEIN pourra contenir des informations, dont ses données d’état civil (prénom, nom, date de naissance, lieu de naissance et nationalité) ainsi que des justificatifs électroniques (permis de conduire, carte vitale, prescription médicale, titres de transport, factures…).

L’utilisateur pourra présenter à terme ce type d’attestations à un service, par exemple envoyer à son futur employeur son diplôme et un justificatif de domicile ou présenter une prescription médicale délivrée par son médecin français dans une pharmacie belge. Ce véritable trousseau de clés numérique lui permettra de franchir les frontières en présentant ses documents électroniques (passeport, visa, voire des billets d’avion).

Le portefeuille permettra également de signer électroniquement des documents avec des signatures dites « qualifiées ». La signature, apposée notamment sur un contrat d’ouverture de compte bancaire ou de location de voiture, aura alors la même valeur juridique qu’une signature manuscrite.

Enfin, deux personnes pourront interagir via leurs portefeuilles respectifs. Alice en voyage en Italie pourra ainsi transmettre sa procuration de vote électronique à Florian.

Un portefeuille, pour qui et pour quand ?

Tous les citoyens et les résidents de l’UE pourront disposer d’un PEIN qui ne sera pas obligatoire, l’ambition de la Commission européenne étant d’équiper 80 % des personnes d’ici à 2030.

2026 est une année charnière, car chaque État membre devra émettre au moins un PEIN d’ici la fin de l’année. Pour cela, le portefeuille devra fournir des fonctionnalités obligatoires (attestations électroniques simples et qualifiées, signatures qualifiées, génération de pseudonymes…), être certifié par chaque État membre conformément aux exigences fixées et figurer sur une liste européenne publique. Le fournisseur de PEIN sera libre de proposer des services additionnels, comme le paiement, l’horodatage ou l’archivage de documents.

Fin 2027, toutes les entreprises et administrations qui exigent une authentification forte du client, comme les banques et la Sécurité sociale, devront accepter qu’une personne prouve son identité au moyen d’un PEIN.

Comment utilisera-t-on un portefeuille ?

Le PEIN prend principalement la forme d’une application mobile téléchargée sur un smartphone. Il fonctionne en ligne et hors ligne (sans connexion).

Si l’on se base sur l’exemple de France Identité, il faut disposer d’une carte d’identité à puce contenant les données d’identification et d’un smartphone compatible NFC sous Android 11 ou iOS 16.6 minimum, et définir un code à six chiffres. L’utilisateur dispose alors d’un niveau de sécurité faible, qui permet de consulter des services comme Impots.gouv.fr, Ameli.fr ou son compte retraite.

Pour obtenir le niveau de sécurité élevé, le titulaire du PEIN doit se rendre en mairie pour une vérification en face-à-face. Cette vérification est indispensable pour les démarches en ligne les plus sensibles, auparavant uniquement réalisables en présentiel, comme l’établissement d’une procuration de vote ou une demande d’aide sociale.

Une ouverture à un marché privé des portefeuilles européens d’identité numérique

Dans les années à venir, il est possible que des États membres émettent des portefeuilles fournis par des acteurs privés.

C’est déjà le cas de la Belgique qui devrait notifier auprès de la Commission européenne le PEIN MyGov.be, qui permet déjà aux citoyens belges d’accéder en ligne à leurs documents administratifs, ainsi que le PEIN Itsme, fourni par un consortium d’acteurs privés.

Un portefeuille, à quel prix ?

La question de la gratuité constitue un point important. La délivrance et l’utilisation du portefeuille sont ainsi gratuites pour un individu. En ce qui concerne les signatures électroniques qualifiées à des fins non professionnelles, elles seront aussi gratuites, chaque État membre étant libre de décider des modalités. Par exemple, la Pologne offre cinq signatures gratuites par mois et par citoyen.

L’utilisation des signatures électroniques à des fins professionnelles pourra être payante. En Belgique, le fournisseur privé du portefeuille Itsme facture 4,95 euros hors TVA par signature qualifiée.

Un portefeuille, pour quels avantages ?

Le PEIN est conçu comme une réponse aux nombreuses usurpations d’identité et au phishing (hameçonnage en français). Il doit permettre aux fournisseurs de services de lutter contre la fraude et les fausses déclarations, notamment concernant l’âge minimum requis pour accéder à des sites pornographiques ou de jeux en ligne. Les démarches qui nécessitent aujourd’hui d’envoyer la photocopie de sa carte d’identité et de son permis de conduire pour louer une voiture pourront être entièrement numérisées.

Un autre avantage, conditionné par la mise en œuvre de moyens techniques adaptés, est le contrôle accru de l’utilisateur sur le traitement de ses données personnelles) : il pourra librement choisir et utiliser des pseudonymes et les utiliser, si l’authentification forte n’est pas requise. Grâce à un tableau de bord obligatoire, il pourra visualiser l’historique des données transmises, demander l’effacement de ses données, et signaler les demandes de données suspectes à la Commission nationale de l’informatique et des libertés (Cnil) – ce qui renforcera l’efficacité des contrôles. Il pourra également sélectionner les données qui figureront ou non dans un justificatif à présenter à un tiers, protégeant ainsi sa vie privée.

Le portefeuille devrait aussi intégrer des technologies de protection de la vie privée. Par exemple, un mineur pourra prouver à un réseau social qu’il a moins de 15 ans et une personne majeure qu’elle a plus de 18 ans, sans avoir à fournir ses nom, prénom et date de naissance, grâce à des technologies de preuve à divulgation nulle de connaissance (ou ZKP, pour Zero-Knowledge Proof en anglais).

De plus, seuls les fournisseurs de services publics et privés inscrits sur une liste publique pourront interagir avec les PEIN. Ces « parties utilisatrices » devront notamment indiquer les données qu’elles demanderont. Les fournisseurs d’attestations et de signatures qualifiées devront, quant à eux, obtenir une qualification préalable (délivrée en France par l’Agence nationale de la sécurité des systèmes d’information, ou Anssi) et figureront eux aussi sur une liste publique. C’est donc un véritable écosystème des identités numériques qui se met en place.

Selon certaines estimations, au moins une quarantaine de portefeuilles devraient participer à ce nouveau marché, qui, malgré les discours rassurants de la Commission européenne, n’en présente pas moins un certain nombre de risques.

Quels sont les risques d’un marché des identités numériques ?

Du côté de l’utilisateur, le premier risque est d’être contraint en pratique d’utiliser un PEIN conçu comme un véritable sésame numérique pour accéder à de nombreux services publics et privés. Cette situation pourrait conduire à laisser de côté une partie de la population qui ne pourra pas, faute d’argent ou de compétences, disposer d’un PEIN pour accéder aux services fournis.

Un autre risque concerne la vie privée des utilisateurs, car il est à craindre que le portefeuille numérique n’augmente la quantité de données personnelles collectées à leur insu. En effet, si nous avons insisté sur l’avantage que représente la lutte contre la collecte abusive de données (grâce à la possibilité de générer des pseudonymes), encore faut-il que le portefeuille soit mis en œuvre dans le respect du règlement général sur la protection des données (RGPD). Il faut donc s’assurer, par exemple, qu’un fournisseur de portefeuille n’insère pas de numéro unique à chaque transaction, ce qui permettrait de tracer l’utilisateur malgré toutes les précautions prises pour ne pas révéler son identité et ses données.

Pour contrer cette menace, le droit de l’UE impose que les portefeuilles soient certifiés avant leurs notifications à la Commission européenne et leurs mises sur le marché. Cette certification apportera donc certaines garanties qui ne seront pas absolues, comme l’ont démontré plusieurs événements par le passé, par exemple l’affaire PEGASUS en 2021 et celle des cartes ID électroniques en Estonie en 2017.

De fait, les cyberattaquants pourront chercher à voler non seulement l’identité d’une personne, mais aussi les données associées à son identité. Certaines d’entre elles, comme les noms, les prénoms et les diplômes, seront de haute qualité, car leur authenticité aura été vérifiée auprès de sources authentiques, comme le registre d’état civil.

Du côté des États de l’UE, le PEIN questionne leur souveraineté, car ceux-ci sont les seuls aujourd’hui à pouvoir établir l’identité d’une personne avec un niveau de fiabilité élevé.

La fourniture des PEIN par des entreprises privées non européennes augmente les risques d’ingérence étrangère qui sont loin de constituer une simple hypothèse. Par exemple, Nicolas Guillou, juge français à la Cour pénale internationale, est placé sous le coup de sanctions états-uniennes depuis août 2025. Comme Thierry Breton, ancien commissaire européen, il est interdit de séjour aux États-Unis, en raison de son implication dans le dossier du mandat d’arrêt visant le premier ministre israélien Benyamin Nétanyahou. Il est privé d’accès aux services numériques états-uniens, d’Airbnb à Amazon. Sa carte Visa lui a même été retirée.

Pour éviter ce type de sanctions, le projet européen APTITUDE travaille à l’intégration dans le PEIN d’une solution de paiement souverain fourni par WERO.

Ce qu'il reste à faire : des choix à opérer, des audits, des alternatives

Le PEIN pourrait être un formidable outil du quotidien. Cependant, de nombreux choix restent encore à opérer, en particulier en matière d’implémentation, d’enrôlement, de révocation et de cybersécurité pour lutter efficacement contre les usurpations d’identités. Pour tenir la promesse d’un monde numérique plus sûr, des contrôles effectifs (comme des audits des fournisseurs de PEIN) et des sanctions dissuasives à l’encontre des acteurs (européens et non européens) devront être mis en place.

Pour autant, il reste essentiel de disposer d’une alternative physique aux documents numériques. Le maintien de documents physiques permettra non seulement de préserver la résilience et la souveraineté d’un État en cas de cyberattaque, mais aussi à chaque citoyen de choisir ou non d’utiliser un PEIN.


Les projets Traceability for trusted multi-scale data and fight against information leak in daily practices and artificial intelligence systems in healthcare – TracIA et More on the adoption of a healthy Mediterranean diet – MoreMedDiet sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Maryline Laurent a reçu des financements de la Fondation Mines-Télécom, de l’Agence Nationale de la Recherche (ANR) et de plusieurs partenaires industriels tels que EDF et Orange.

Claire Levallois-Barth a reçu des financements de la Fondation Mines-Télécom. Les partenaires de la Chaire VP-IP qu'elle coordonne sont BNPP, IN Groupe, France Titres, Orange.

PDF

04.04.2026 à 17:33

Comment Taïwan en est venu à dominer l’industrie mondiale des semi-conducteurs

Robyn Klingler-Vidra, Vice Dean, Global Engagement | Associate Professor in Political Economy and Entrepreneurship, King's College London

Pourquoi Taïwan domine-t-il aujourd’hui l’industrie mondiale des semi-conducteurs ? De la création de TSMC aux investissements publics massifs dans la recherche et la formation d’ingénieurs, l’histoire de cette réussite repose sur plusieurs décennies de stratégie industrielle.
Texte intégral (2065 mots)

La puissance technologique de Taïwan dans les semi-conducteurs joue aujourd’hui un rôle clé dans les équilibres géopolitiques mondiaux. Derrière ce « bouclier de silicium » se cache une stratégie industrielle patiemment bâtie depuis plus de cinquante ans.


Une entreprise, Taiwan Semiconductor Manufacturing Company (TSMC), produit à elle seule plus de 90 % des semi-conducteurs les plus avancés au monde. Des puces essentielles aux smartphones, à l’intelligence artificielle, au calcul haute performance et aux systèmes militaires de pointe.

La domination de Taïwan dans les puces les plus avancées constitue un véritable point d’étranglement pour l’économie mondiale. Quelques jours ou semaines d’arrêt de leur production suffiraient à affecter l’approvisionnement et les prix de nombreux produits dans le monde. La situation est comparable à la manière dont les perturbations actuelles du transport maritime dans le golfe Persique, liées à la guerre avec l’Iran, affectent les marchés dépendants du pétrole à l’échelle mondiale.

La suprématie taïwanaise dans la fabrication de semi-conducteurs a transformé l’île en ce que je décris dans mes recherches comme une « superpuissance de niche ». Elle exerce une influence mondiale disproportionnée en contrôlant une industrie stratégiquement indispensable.

Taïwan n’est pas arrivé par hasard à cette position. Dans les années 1970, des technocrates taïwanais ont compris que le pays ne pouvait pas encore rivaliser avec les leaders mondiaux de l’électronique. L’un d’eux était Kwoh-Ting Li, alors ministre de l’Économie, souvent considéré comme le « père du miracle économique taïwanais ».

À l’époque, Taïwan ne disposait ni du capital financier ni des compétences technologiques nécessaires pour rivaliser avec les leaders du secteur comme le Japon et les États-Unis. Plutôt que de chercher à dominer l’ensemble de l’industrie des semi-conducteurs, de la conception jusqu’à la production, les responsables politiques taïwanais ont donc choisi de développer des compétences dans la fabrication de précision. Il s’agit de l’étape la plus exigeante sur le plan opérationnel dans la chaîne de valeur des semi-conducteurs.

Fondé en 1973 par le gouvernement taïwanais, l’Industrial Technology Research Institute a soigneusement acquis des technologies de fabrication des semi-conducteurs grâce à des accords de licence conclus avec l’entreprise américaine aujourd’hui disparue Radio Corporation of America (RCA). L’institut a ensuite formé toute une génération d’ingénieurs taïwanais.

Le moment charnière date de 1987, lorsque Morris Chang a fondé TSMC dont nous parlions en introduction. Ingénieur formé aux États-Unis, Chang avait passé plusieurs décennies au sein de la multinationale américaine spécialisée dans les semi-conducteurs Texas Instruments. Il a alors imaginé ce que l’on appelle aujourd’hui le modèle de la « pure-play foundry », le modèle de fonderie taïwanais.

Plutôt que de concevoir et de fabriquer ses propres puces sous sa marque, TSMC s’est spécialisé dans la fabrication de puces pour d’autres entreprises. Ce choix stratégique a été déterminant, car il a rassuré les entreprises américaines et européennes du secteur des semi-conducteurs en leur montrant que TSMC n’entrerait pas en concurrence avec elles. Cela a permis à de grandes entreprises technologiques comme Qualcomm, puis plus tard Nvidia, d’externaliser la production de leurs puces à Taïwan sans craindre de fuite de propriété intellectuelle ni de rivalité stratégique.

L’industrie taïwanaise des semi-conducteurs s’est développée au sein du Parc scientifique de Hsinchu, un grand pôle industriel situé au sud de la capitale taïwanaise, Taipei. Au début des années 1990, le parc de Hsinchu accueillait plus de 140 entreprises de fabrication de puces et employait environ 30 000 personnes. La puissance de ce cluster a attiré de nombreux ingénieurs taïwanais installés aux États-Unis, contribuant à faire de Taïwan le leader mondial de la production de semi-conducteurs avancés.

Le « bouclier de silicium »

La domination de Taïwan dans les semi-conducteurs a joué un rôle manifeste dans la protection de l’île face à sa menace existentielle — le risque d'invasion chinoise. Ce phénomène a été explicitement évoqué en 2021 dans un article publié dans la revue Foreign Affairs, dans lequel l’ancienne présidente taïwanaise Tsai Ing-wen affirmait que l’industrie des semi-conducteurs de Taïwan constituait un « bouclier de silicium ».

Selon elle, la dépendance de l’économie mondiale à l’égard des puces avancées fabriquées à Taïwan signifie que les perturbations provoquées par une invasion chinoise entraîneraient des conséquences économiques catastrophiques à l’échelle mondiale. Les alliés de Taïwan seraient donc contraints de venir à sa défense.

La politique chinoise

Ces dernières années, le « bouclier de silicium » de Taïwan est toutefois menacé. Depuis le début, en 2020, des restrictions américaines sur l’exportation vers la Chine d’équipements avancés de fabrication de puces, Pékin a accéléré ses efforts pour développer des capacités nationales de production de semi-conducteurs. Les investissements dans l’industrie chinoise des puces ont fortement augmenté.

Les semi-conducteurs ont constitué l’un des points faibles de la stratégie Made in China 2025, par laquelle les dirigeants chinois entendaient transformer leur pays en superpuissance de la tech. Et si la Chine n’a pas atteint ses objectifs en matière de localisation de la production de semi-conducteurs et de part de marché mondiale, manquant les objectifs fixés pour 2025, des fabricants chinois de puces comme HiSilicon et Semiconductor Manufacturing International Corporation gagnent du terrain. Une proposition présentée en mars par treize dirigeants de l’industrie chinoise des semi-conducteurs fixe pour objectif d’atteindre 80 % d’autosuffisance d’ici à 2030. Aujourd’hui, elle se situe autour de 33 %.

Les efforts aux États-Unis

Dans le même temps, Washington cherche à rapatrier la production de semi-conducteurs sur le sol américain. Des initiatives lancées sous l’administration Biden, comme le Chips and Science Act, ont créé des incitations pour soutenir l’immense site de production de TSMC en Arizona, ouvert en 2022 dans le cadre des efforts des États-Unis pour renforcer leur production nationale de puces.

Ces incitations accordées à TSMC comprenaient jusqu’à 6,6 milliards de dollars (environ 5,7 milliards d'euros) d’investissements directs ainsi que d’importants crédits d’impôt. TSMC a initialement engagé 65 milliards de dollars (56 milliards d'euros) dans ce projet, l’administration Trump annonçant en mars 2025 que l’entreprise augmenterait encore ses investissements aux États-Unis de 100 milliards de dollars supplémentaires (86 milliards d'euros).

Elon Musk a de son côté récemment annoncé des projets d’installations d'unités de production de puces avancées au Texas pour ses deux entreprises, Tesla et SpaceX. Face aux inquiétudes du milliardaire selon lesquelles des entreprises comme TSMC ne produisent pas le volume de puces dont ses sociétés ont besoin, le projet baptisé « Terafab » vise à regrouper toutes les étapes de la production de semi-conducteurs sous un même toit. Son coût est estimé autour de 21 milliards d'euros. D’autres entreprises investissent également dans la fabrication de puces aux États-Unis, notamment Micron, Texas Instruments et Intel.

Difficile de reproduire le modèle taïwanais

Malgré les efforts des États-Unis et de la Chine, reproduire l’écosystème industriel de Taïwan reste difficile. Cela exige non seulement du capital et des équipements, mais aussi un savoir-faire accumulé sur plusieurs décennies, ainsi que des réseaux de fournisseurs très denses et une main-d’œuvre d’ingénieurs sans équivalent.

TSMC a d'ailleurs rencontré des difficultés à recruter des talents en Arizona et a dû faire venir par avion des milliers de travailleurs depuis Taïwan afin d’améliorer les compétences des équipes locales. Et tandis que TSMC produit désormais des semi-conducteurs à la pointe de la technologie à l’échelle de 2 nanomètres, les objectifs chinois d’autosuffisance visent plutôt à disposer d’« équipements entièrement produits sur le territoire national » pour les générations de puces moins avancées, de 7 et 14 nanomètres.

Or ma différence entre les puces de 2 nm et celles de 7 nm est considérable : elles offrent environ 45 % de performances supplémentaires tout en consommant 75 % d’énergie en moins. Les puces les plus fines sont utilisées pour des applications de pointe comme l’intelligence artificielle avancée, tandis que les puces plus larges sont employées dans une gamme plus étendue d’appareils électroniques, comme les smartphones, les processeurs d’ordinateurs et les automobiles.

L’histoire des semi-conducteurs à Taïwan est, au fond, celle d’une remarquable clairvoyance stratégique. En choisissant de se spécialiser dans la fabrication plutôt que dans la conception, en s’insérant dans les réseaux technologiques dominés par les États-Unis et en développant une expertise de classe mondiale dans les procédés industriels, Taïwan a transformé une vulnérabilité structurelle en véritable puissance structurelle.

Grâce à sa domination dans les semi-conducteurs, Taïwan apparaît comme l’exemple par excellence d’une superpuissance de niche. Mais l’histoire montre que le statut de superpuissance, même dans un domaine spécifique, n’est jamais permanent. La frontière technologique se déplace, les rivaux apprennent et les alliés prennent leurs précautions.

Pour Taïwan, rester indispensable à l’économie mondiale exigera donc non seulement de conserver une avance technologique. Il faudra aussi orchestrer avec soin les fondements politiques, financiers et humains qui ont rendu possible, initialement, son « bouclier de silicium ».

The Conversation

Robyn Klingler-Vidra a reçu une subvention de recherche de la Chiang Ching-kuo Foundation entre 2019 et 2023. Cette subvention a financé une recherche sur la formation et les parcours professionnels des responsables des politiques d’innovation en Asie du Nord-Est depuis l’après-guerre. L’étude a été publiée dans la revue World Development en avril 2025 et est disponible ici : https://www.sciencedirect.com/science/article/pii/S0305750X25000646

PDF

03.04.2026 à 16:26

Un million de satellites ? La nouvelle ruée vers l’orbite inquiète scientifiques et juristes

Gregory Radisic, Fellow at the Centre for Space, Cyberspace and Data Law; Senior Teaching Fellow, Faculty of Law, Bond University

Samantha Lawler, Associate Professor, Astronomy, University of Regina

L’essor des mégaconstellations promet une révolution technologique – mais aussi une transformation irréversible du ciel nocturne.
Texte intégral (2107 mots)
Vue d’astronome d’une étoile obscurcie par les traînées laissées par des satellites Starlink. Rafael Schmall/Wikimedia Commons, CC BY

Des dizaines de milliers de satellites sont déjà en orbite, et plus d’un million sont envisagés. Cette industrialisation du ciel pourrait bouleverser l’observation astronomique, la navigation et certaines traditions culturelles, sans que ces impacts soient réellement pris en compte par la régulation.


Le 30 janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission (FCC) des États-Unis pour déployer une mégaconstellation pouvant compter jusqu’à un million de satellites, constellation destinée à alimenter des centres de données dans l’espace.

Le projet prévoit des satellites opérant entre 500 et 2 000 kilomètres d’altitude en orbite terrestre basse. Certaines de ces orbites sont conçues pour bénéficier d’une exposition quasi permanente au soleil. Le public peut d’ailleurs actuellement soumettre des commentaires sur cette proposition.

La demande déposée par SpaceX n’est que la dernière en date d’une série de projets de mégaconstellations de satellites. Satellites qui remplissent généralement une fonction unique et ont une durée de vie relativement courte, d’environ cinq ans avant d’être remplacés.

En février 2026, environ 14 000 d’entre eux étaient déjà en orbite. Dans le même temps, 1,23 million de satellites supplémentaires sont en projet. La procédure d’autorisation de ces satellites repose presque exclusivement sur les informations techniques, très limitées, que les entreprises qui les produisent fournissent aux régulateurs. Les conséquences culturelles, spirituelles – et une grande partie des impacts environnementaux de ces objets – restent largement ignorées. Pourtant, elles devraient faire partie de l’évaluation.

Le ciel nocturne va profondément changer

À cette échelle de croissance, le ciel nocturne sera durablement transformé à l’échelle mondiale, et ce pour des générations.

Les satellites en orbite terrestre basse réfléchissent la lumière du soleil pendant environ deux heures après le coucher du soleil et avant son lever. Malgré des efforts d’ingénierie visant à réduire leur luminosité, ces satellites – parfois de la taille d’un camion – apparaissent dans le ciel nocturne comme des points lumineux en mouvement. Les projections montrent que les futurs satellites vont considérablement accroître cette pollution lumineuse.

En 2021, des astronomes estimaient que, d’ici moins d’une décennie, un point lumineux sur quinze dans le ciel nocturne serait un satellite en mouvement. Cette estimation ne prenait pourtant en compte que les 65 000 satellites de mégaconstellations proposés à l’époque.

Une fois qu’un million d’entre eux seront déployés, les conséquences pour le ciel nocturne pourraient être difficiles à inverser. Si la durée de vie moyenne d’un satellite n’est que d’environ cinq ans, les entreprises conçoivent ces mégaconstellations pour être remplacées et étendues en permanence. Le résultat : une présence industrielle continue dans le ciel nocturne.

Tout cela provoque un « syndrome du glissement de référence » (shifting baseline syndrome) appliqué à l’espace : chaque nouvelle génération finit par considérer comme normal un ciel nocturne de plus en plus dégradé. Les satellites qui se croisent dans le ciel deviennent la norme.

Pour la première fois dans l’histoire de l’humanité, ce glissement de référence signifie que les enfants d’aujourd’hui ne grandiront pas avec le même ciel nocturne que celui qu’ont connu toutes les générations précédentes.

Houston, nous avons un « méga » problème…

Le volume colossal de satellites envisagés suscite des inquiétudes de toutes parts. Les astronomes redoutent notamment les reflets lumineux intenses et les émissions radio qui risquent de perturber les observations du ciel.

Dans l’industrie aussi, les alarmes se multiplient : gestion du trafic orbital, risques de collision, coordination internationale. Contrairement à l’aviation, il n’existe toujours pas de système unifié de gestion du trafic spatial.

Les mégaconstellations augmentent aussi le risque de syndrome de Kessler, une réaction en chaîne de collisions potentiellement incontrôlable. On compte déjà 50 000 débris en orbite d’au moins dix centimètres. Si les satellites cessaient toute manœuvre d’évitement, les dernières données montrent qu’une collision majeure surviendrait en moyenne tous les 3,8 jours.

Les préoccupations culturelles sont également nombreuses. La pollution lumineuse générée par les satellites risque d’affecter les usages autochtones du ciel nocturne liés à des traditions orales anciennes, à la navigation, à la chasse ou encore à des pratiques spirituelles.

Le lancement d’un si grand nombre de satellites nécessite par ailleurs d’énormes quantités de carburants fossiles, ce qui peut endommager la couche d’ozone. Une fois leur mission terminée, ces satellites sont conçus pour brûler dans l’atmosphère. Ce procédé soulève une autre inquiétude environnementale : le dépôt de grandes quantités de métaux dans la stratosphère, susceptibles de provoquer une dégradation de l’ozone et d’autres réactions chimiques potentiellement nocives.

Tout cela soulève aussi des questions juridiques. En vertu du droit spatial international, ce sont les États – et non les entreprises – qui sont responsables des dommages causés par leurs objets spatiaux.

Les juristes spécialisés dans le droit de l’espace tentent désormais de déterminer si ce cadre juridique peut réellement permettre de tenir les entreprises ou les particuliers responsables. La question devient d’autant plus pressante que les risques de dégâts matériels, de morts ou de dommages environnementaux irréversibles augmentent.

Les failles dans la régulation ne peuvent plus être ignorées

Aujourd’hui, les règles qui encadrent les projets de satellites sont essentiellement techniques : elles portent par exemple sur les fréquences radio utilisées. Au niveau national, les autorités se concentrent surtout sur la sécurité des lancements, la limitation des impacts environnementaux sur Terre et la responsabilité en cas d’accident.

Ce que ces réglementations ne prennent pas en compte, en revanche, c’est l’effet qu’auraient des centaines de milliers de satellites lumineux sur le ciel nocturne – pour la recherche scientifique, la navigation, les transmissions et cérémonies autochtones…

Ces effets ne relèvent ni des atteintes environnementales « classiques », ni de simples questions d’ingénierie. Ce sont des impacts culturels qui échappent largement aux cadres de régulation actuels. C’est pourquoi le monde aurait besoin d’une évaluation de l’impact sur les « ciels nocturnes », comme le proposent les juristes spécialisés en droit spatial Gregory Radisic et Natalie Gillespie.

L’objectif serait de mettre en place une méthode systématique pour identifier, documenter et réellement prendre en compte l’ensemble des effets d’une constellation de satellites avant son déploiement.

Comment fonctionnerait une telle évaluation ?

La première étape consisterait à recueillir des données auprès de l’ensemble des parties prenantes. Astronomes – amateurs comme professionnels –, scientifiques de l’atmosphère, chercheurs en environnement, spécialistes des questions culturelles, communautés concernées et acteurs industriels apporteraient chacun leur point de vue.

Ensuite, il serait essentiel de modéliser les effets cumulés des satellites. Les évaluations devraient analyser comment ces constellations modifieront la visibilité du ciel nocturne et la luminosité du ciel, la congestion orbitale et le risque de victimes au sol.

Troisièmement, il faudrait définir des critères clairs pour déterminer dans quels cas la préservation d’un ciel dégagé est essentielle – pour la recherche scientifique, la navigation, l’enseignement, les pratiques culturelles ou encore le patrimoine commun de l’humanité.

Quatrièmement, l’évaluation devrait prévoir des mesures d’atténuation : réduction de la luminosité des satellites, modification des orbites ou ajustement du déploiement afin d’en limiter les dommages. Elle pourrait aussi inclure des incitations à utiliser le moins de satellites possible pour un projet donné.

Enfin, les conclusions devraient être transparentes, pouvoir faire l’objet d’un examen indépendant et être directement prises en compte dans les décisions d’autorisation et les politiques publiques.

Ce n’est pas un outil de veto

Cette évaluation de l’impact sur les ciels nocturnes ne vise pas à bloquer le développement spatial. Elle permet plutôt de clarifier les arbitrages et d’améliorer la prise de décision. Elle peut conduire à privilégier dès la des satellites réduisant la luminosité et les interférences visuelles, à choisir des configurations orbitales limitant l’impact culturel, à des consultations plus précoces et plus approfondies, ainsi qu’à une meilleure prise en compte des dimensions culturelles lorsque les dommages ne peuvent être évités.

Surtout, elle garantit que les communautés concernées par les constellations de satellites ne découvrent pas leur existence une fois les autorisations déjà accordées – lorsque des points lumineux commencent à traverser leur ciel.

La question n’est plus de savoir si le ciel nocturne va changer : il est déjà en train de changer. Le moment est venu pour les gouvernements et les institutions internationales de mettre en place des règles équitables, avant que ces transformations ne deviennent irréversibles.

The Conversation

Gregory Radisic est affilié à l’International Institute of Space Law ainsi qu’à l’Institute on Space Law and Ethics de l’organisation For All Moonkind Inc.

Samantha Lawler reçoit des financements du Natural Sciences and Engineering Research Council of Canada. Elle est également fellow de l’Outer Space Institute.

PDF

01.04.2026 à 11:14

Décoloniser notre rapport aux animaux pour inventer un nouveau rapport au monde

Cédric Sueur, Professeur des Universités en éthologie, primatologie et éthique animale, Université de Strasbourg

L’humain s’est placé au-dessus de toutes les autres espèces animales. Comment changer notre relation avec elles pour sortir d’une logique de domination et aller vers des formes de coexistence et de coopération ?
Texte intégral (3501 mots)

L’humain s’est placé au-dessus de toutes les autres espèces animales. Comment changer notre relation avec elles pour sortir d’une logique de domination et aller vers des formes de coexistence et de coopération ?


Chaque année, des milliards d’animaux sont élevés, transportés et abattus pour répondre aux besoins alimentaires, scientifiques ou industriels des sociétés humaines. Cette utilisation intensive du vivant pose une double question. Elle est d’abord éthique, car elle implique la souffrance et la mise à mort d’êtres vivants sensibles. Elle est aussi environnementale et sanitaire : la déforestation pour l’élevage intensif, la pollution conséquente et la proximité accrue entre espèces favorisent les déséquilibres écologiques et l’émergence de maladies.

Le concept de One Health (une seule santé) et la crise du Covid-19 rappellent que la santé humaine dépend étroitement de celle des animaux et des écosystèmes. Ces crises ne sont pas indépendantes. Elles révèlent un même rapport au vivant, fondé sur l’exploitation et la mise à distance physique et émotionnelle. Comprendre ce rapport est une condition nécessaire pour le transformer.

Une domination héritée : spécisme et colonisation

Les recherches en éthologie ont profondément renouvelé notre regard sur les animaux. De nombreuses espèces manifestent des émotions, des capacités d’apprentissage, des formes de coopération et des relations sociales complexes. Chez certains primates, mais aussi chez des éléphants, des corvidés ou des cétacés, on observe des comportements qui suggèrent des formes de conscience, d’empathie, de culture et de deuil.

À gauche : femelle macaque japonais gardant son bébé mort et probablement en deuil. À droite : comportement culturel de rodéo chez les macaques japonais. Cédric Sueur, Alexandre Bonnefoy, Fourni par l'auteur

Pourquoi, malgré ces connaissances, continuons-nous à exploiter les animaux à grande échelle ? Une partie de la réponse tient à notre héritage culturel. Les sociétés occidentales modernes se sont construites sur une séparation entre l’humain et le reste du vivant, associée à une hiérarchisation qui place l’homme au sommet.

Le concept de « spécisme », inventé par Richard Ryder en 1970, désigne cette discrimination fondée sur l’espèce. Il conduit à considérer que les intérêts des humains priment systématiquement sur ceux des autres êtres qui souffrent tout autant. Dans sa structure, ce mécanisme n’est pas sans analogie avec le racisme ou le sexisme : il repose sur une différence érigée en critère de domination.

Décoloniser notre rapport aux animaux, de Cédric Sueur, éditions Odile Jacob, 2026. Fourni par l'auteur

Le spécisme décrit cependant avant tout une attitude morale, un biais cognitif et éthique dans la manière dont nous évaluons les intérêts des différentes espèces. La notion de « colonisation animale », que je développe dans Décoloniser notre rapport aux animaux (Odile Jacob, 2026), cherche à aller plus loin en désignant les structures concrètes qui organisent et perpétuent cette domination.

Là où le spécisme interroge les représentations, la colonisation animale pointe les dispositifs institutionnels, économiques et culturels qui les rendent opératoires : les animaux sont appropriés, contrôlés, transformés en ressources économiques et symboliques. Le droit les protège partiellement en tant qu’êtres vivants sensibles, tout en les maintenant dans le régime des biens. L’économie en fait des marchandises et tend à invisibiliser les violences qui leur sont infligées. Ces dimensions se renforcent mutuellement et stabilisent un système de domination qui dépasse la seule question des représentations pour s’incarner dans des pratiques, des lois et des rapports de pouvoir.

D’autres ontologies du vivant

Cette manière de penser n’est pourtant pas universelle. De nombreuses sociétés non occidentales, comme les Achuar d’Amazonie, les aborigènes d’Australie ou les Japonais, envisagent les relations entre humains et non-humains autrement. Plutôt que de séparer radicalement les êtres, elles insistent sur les continuités, les interdépendances et les relations.

Les travaux de l’anthropologie, en particulier de Philippe Descola (les Lances du crépuscule, 1993) ou de Bruno Latour (Enquête sur les modes d’existence, 2012), ont ainsi montré l’existence de différentes « ontologies », c’est-à-dire des manières de définir et de se représenter ce qui existe et comment les êtres sont liés. Ces sociétés ou ethnies sont, par exemple, animistes et attribuent aux animaux une intériorité – autrement dit une vie intérieure faite d’intentions, d’émotions, de perceptions et de subjectivité propre, comparable à celle que nous reconnaissons aux humains – ou les considèrent comme des partenaires inscrits dans des réseaux de relations.

À Kuma Tsamé Totsi (Togo), des roussettes frugivores, protégées comme êtres tabous par le village, échappent à la chasse et forment d’importantes colonies, jouant un rôle clé dans la régénération forestière. Cédric Sueur, Fourni par l'auteur

Sans idéaliser ces perspectives, elles offrent des ressources pour sortir d’une vision strictement utilitariste du vivant. Elles invitent à penser une coexistence fondée non sur la domination, mais sur la réciprocité et l’attention aux interdépendances.

Transformer nos pratiques quotidiennes

Décoloniser notre rapport aux animaux suppose d’abord de transformer nos pratiques les plus ordinaires. L’alimentation constitue un levier central : réduire la consommation de produits animaux permet de limiter à la fois la souffrance animale et l’impact environnemental.

Au-delà, il s’agit de repenser la manière dont nous partageons les espaces. L’urbanisation a longtemps exclu les autres espèces. Une approche « zooinclusive » développée par la chercheuse Émilie Dardenne propose au contraire d’intégrer leurs besoins dans la conception des villes : favoriser la présence d’oiseaux, d’insectes ou de petits mammifères, aménager des continuités écologiques ou encore adapter les bâtiments pour accueillir d’autres formes de vie.

Cette approche trouve déjà des traductions concrètes. Certaines villes européennes, comme Vienne, Bruxelles ou Londres, ont ainsi intégré des nichoirs et des gîtes à chauves-souris dans les façades de bâtiments rénovés. D’autres ont aménagé des passages fauniques sous les axes routiers pour permettre les déplacements des mammifères sauvages, ou encore maintenu des toitures végétalisées favorisant la biodiversité des pollinisateurs. À Singapour, la politique des « corridors verts » cherche explicitement à reconnecter des fragments d’habitats naturels au sein du tissu urbain. En France, la trame verte et bleue, inscrite dans la législation depuis le Grenelle de l’environnement, constitue une tentative institutionnelle d’intégrer ces continuités écologiques à l’échelle du territoire.

Ces transformations ne relèvent pas seulement de choix individuels, mais aussi de décisions collectives en matière d’aménagement et de politiques publiques.

Repenser la conservation de la faune sauvage

La protection des animaux sauvages s’inscrit souvent dans une logique de gestion : il s’agit de réguler, contrôler, parfois éliminer certaines populations jugées problématiques. Les carnivores sont particulièrement visés. En France, le loup cristallise les tensions entre éleveurs et défenseurs de la nature depuis son retour naturel dans les Alpes dans les années 1990. En Afrique, le lion fait l’objet de conflits similaires : lorsqu’il s’attaque au bétail des communautés rurales, il est perçu comme une menace directe pour la survie économique des familles, ce qui conduit à des empoisonnements ou des abattages, parfois tolérés voire encouragés par les autorités locales.

Les grands herbivores ne sont pas épargnés : en Afrique australe et orientale, les éléphants, dont les populations se sont reconstituées dans certaines zones protégées, provoquent des destructions massives de cultures, écrasent des habitations, tuent des êtres humains. Ces conflits humains-éléphants poussent des communautés à réclamer des abattages, voire à tolérer le braconnage comme seule réponse à une menace perçue comme existentielle. Le braconnage lui-même, souvent présenté uniquement sous l’angle criminel, s’alimente parfois de cette exaspération locale, même s’il est également structuré par des réseaux internationaux aux enjeux économiques considérables. Cette approche gestionnaire prolonge, sous d’autres formes, une relation de domination du vivant, ce que l’historien Guillaume Blanc nomme un nouveau colonialisme vert : des décisions prises depuis l’extérieur, au nom de la nature, sans tenir compte des réalités vécues par les populations locales.

Au Malawi, un éléphant traverse une réserve gérée par une ONG controversée, symbole des tensions entre conservation, accaparement des terres et droits des populations locales face aux modèles imposés étrangers. Cédric Sueur, Fourni par l'auteur

Décoloniser la conservation consiste à reconnaître davantage l’autonomie des animaux, leur « souveraineté sauvage », comme la définissent les philosophes Donaldson et Kymlicka, et à respecter leurs habitats. Cela implique de passer d’une logique de contrôle à une logique de coexistence, en cherchant des formes de médiation entre les intérêts humains et non humains. Des initiatives de terrain, comme le projet Cibel dans la forêt du bassin du Congo, montrent qu’il est possible de concilier activités humaines et présence de la faune sauvage, à condition d’accepter la complexité de ces relations.

Décoloniser les sciences

La science elle-même n’échappe pas à ces enjeux. Les animaux y sont souvent considérés comme des objets d’étude ou des modèles expérimentaux. Intégrer leur « agentivité animale », c’est-à-dire leur capacité à agir et à influencer les situations, conduit à repenser les protocoles de recherche vers une coopération humain – non humain plutôt que vers des sacrifices animaux.

En primatologie, par exemple, certaines approches cherchent à limiter les contraintes imposées aux animaux et à mieux prendre en compte leurs comportements spontanés. Lancée par l’éthologue Tetsuro Matsuzawa, cette approche d’observation participante est une collaboration humanimale. Plus largement, le développement de méthodes alternatives permet de réduire le recours à l’expérimentation animale. Décoloniser les sciences ne signifie pas renoncer à la recherche, mais en interroger les présupposés et les finalités des utilisations animales.

Expérience comportementale de terrain à Shodoshima, au Japon, où un chercheur collabore avec un macaque dans une tâche cognitive, sans enfermement, contrainte ni stress pour l’animal. Cédric Sueur, Fourni par l'auteur

L’expérimentation animale constitue un point de tension majeur. Si certains travaux sont justifiés par des enjeux de santé, d’autres apparaissent plus discutables au regard des souffrances infligées. Des outils comme le « cube de Bateson » proposent d’évaluer les recherches en fonction de leurs bénéfices attendus, de leur probabilité de réussite et des dommages causés aux animaux. Mais dans la pratique, la réflexion éthique reste souvent limitée. Décoloniser l’expérimentation suppose de renforcer ces exigences, de développer des alternatives et de questionner la légitimité même de certaines recherches.

Vers une coexistence

Décoloniser notre rapport aux animaux, c’est finalement transformer en profondeur notre manière d’habiter le monde. Il ne s’agit pas de supprimer toute relation avec eux, mais de sortir d’une logique de domination pour aller vers des formes de coexistence et de coopération, ce qui est nommé le « capital animal ». Les animaux ne sont plus de simples matériaux pour manger ou se vêtir, mais sont des aides sociales, des passeurs culturels (ils nous transmettent des informations sur notre environnement) et des managers écosystémiques (ils nous aident à gérer nos écosystèmes).

Ce changement est à la fois éthique, écologique et politique. Il implique de reconnaître que les humains ne sont pas extérieurs au vivant, mais en font partie. Dans un contexte de crises multiples, repenser nos relations avec les autres espèces apparaît non comme un luxe, mais comme une nécessité pour la survie de tous dont l’humanité.

The Conversation

Cédric Sueur est l'auteur de l'ouvrage « Décoloniser notre rapport aux animaux » publié aux Editions Odile Jacob dont l'article fait mention.

PDF

01.04.2026 à 11:14

L’ADN a parlé : la culture de la vigne en France date de plus de 4 000 ans

Rémi Noraz, Doctorant en Archéobiologie et Paléoécologie, Université de Montpellier

Des pépins de raisin retrouvés sur des sites archéologiques peuvent sembler anodins. Pourtant, l’analyse de leur ADN donne accès à l’histoire plurimillénaire de la vigne cultivée.
Texte intégral (1244 mots)

Des pépins de raisin retrouvés sur des sites archéologiques peuvent sembler anodins. Pourtant, l’analyse de leur ADN donne accès à l’histoire plurimillénaire de la vigne cultivée.

Nous avons séquencé le génome de pépins vieux de plusieurs millénaires, révélant une histoire déjà entrevue par l’archéologie : celle de l’introduction de la viticulture en France, des échanges de cépages à l’échelle européenne et de pratiques agricoles anciennes qui ont laissé des traces jusqu’à aujourd’hui.

Nos résultats, publiés tout récemment dans Nature communications, montrent notamment que certains cépages emblématiques, comme le pinot noir variété phare de Bourgogne, étaient déjà présents au Moyen Âge.

Comment avons-nous analysé l’ADN de pépins de raisin vieux de 4 000 ans ?

L’histoire de la vigne s’est longtemps appuyée sur l’étude morphologique des pépins. Cette puissante approche a permis de distinguer de grandes tendances, notamment sur le caractère sauvage ou domestique des pépins, et retracer les débuts de la viticulture.

Cependant, certaines questions restaient difficiles à trancher : origine géographique des cépages, relations de parenté, ou encore les modes de multiplication (croisement ou reproduction clonale) et circulation des plants. L’ADN ancien pouvant être préservé au cœur même des pépins apporte ici une aide particulièrement décisive, comme témoin des relations entre les vignes du passé et celles d’aujourd’hui.

Nous avons ainsi analysé 49 pépins provenant de différents sites archéologiques, majoritairement français, et couvrant près de 4 000 ans, de l’âge du Bronze à la fin du Moyen Âge. Ces pépins gorgés d’eau ont été préservés dans des contextes spécifiques, humides, ayant contribué à une bonne préservation de leur ADN.

Pépins anciens (à gauche) et pépins modernes (à droite). S. Ivorra, CNRS, Fourni par l'auteur

L’ADN a été extrait dans le laboratoire spécialisé en ADN ancien du Centre d’anthropobiologie et de génomique de Toulouse, conçu pour isoler et manipuler les molécules aussi rares que dégradées qui ont traversé les époques dans les restes archéologiques. Cet ADN ancien a pu être décrypté grâce à des technologies de séquençage de pointe jusqu’à en lire la totalité de l’information génétique, soit ici un texte génétique d’environ 500 millions de lettres.

Ces données permettent d’établir les relations génétiques entre individus, d’identifier les origines des cépages et de retrouver les techniques de propagations passées : soit par croisement, mélangeant des variétés d’origine ou de qualités distinctes ; soit par reproduction clonale (par bouturage, marcottage ou greffe) pour maintenir à l’identique dans le temps une variété qui leur était particulièrement précieuse.

Notre découverte prouve l’ancienneté de la viticulture

Les premières vignes cultivées apparaissent en France aux alentours de -600 avant notre ère, avec le développement des échanges méditerranéens, notamment du vin. Elles coexistent avec des vignes sauvages locales, et des croisements entre ces deux types contribuent à la diversité des cépages.

Les analyses génétiques confirment également l’existence de circulations à longue distance dès cette période. Des influences venues d’Ibérie, des Balkans ou du Proche-Orient témoignent des échanges des plants et de savoir-faire à l’échelle de la Méditerranée et, plus généralement, de l’Europe.

Autre point important : la multiplication clonale apparaît comme une pratique ancienne et commune, déjà en place dès l’âge du Fer. Elle a permis de maintenir certaines variétés d’intérêt sur de longues périodes et de les diffuser sur de longues distances.

C’est dans ce cadre que nous avons identifié un pépin médiéval considéré comme étant génétiquement identique au pinot noir actuel, illustrant la continuité de certains cépages sur plusieurs siècles.

Quelles perspectives pour ces recherches ?

L’apport de l’ADN ancien ne se limite pas à confirmer des scénarios existants : il ouvre aussi de nouvelles pistes.

En combinant données anciennes et modernes, il devient possible d’aller plus loin dans la caractérisation des vignes du passé. Des approches récentes permettraient par exemple d’inférer certaines caractéristiques des raisins anciens, comme la couleur des baies ou certains traits liés au goût.

Ces méthodes pourraient aussi permettre de mieux comprendre les adaptations des cépages aux environnements du passé, ou encore les choix opérés par les sociétés anciennes dans leurs pratiques agricoles.

À terme, ces recherches contribuent à mieux documenter la diversité génétique de la vigne et son évolution, un enjeu important dans le contexte actuel de changements climatiques.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Rémi Noraz a reçu des financements de l'ANR MICA (ANR-22-CE27-0026).

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓