URL du flux RSS

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

28.10.2025 à 15:18

Qu’est-ce que l’« AI poisoning » ou empoisonnement de l’IA ?

Seyedali Mirjalili, Professor of Artificial Intelligence, Faculty of Business and Hospitality, Torrens University Australia
L’empoisonnement de l’intelligence artificielle n’est pas une métaphore : il s’agit d’une méthode bien réelle pour corrompre les modèles d’IA, comme ChatGPT.
Texte intégral (1259 mots)
En absorbant des données corrompues, les modèles d’IA peuvent dysfonctionner (ci-dessus une version pixellisée de _Sigismonde buvant le poison_ [c. 1897]). Joseph Edward Southall/Birmingham Museums Trust

Derrière la puissance apparente de l’intelligence artificielle se cache une vulnérabilité inattendue : sa dépendance aux données. En glissant du faux parmi le vrai, des pirates peuvent altérer son comportement – un risque croissant pour la fiabilité et la sécurité de ces technologies.


Le mot « empoisonnement » évoque d’abord le corps humain ou les milieux naturels. Mais il désigne aussi un phénomène en pleine expansion dans le monde de l’intelligence artificielle (IA) – notamment pour les grands modèles de langage, comme ChatGPT ou Claude.

Une étude conjointe publiée ce mois-ci par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic, a montré que l’ajout d’à peine 250 fichiers malveillants dans les millions de données servant à entraîner un modèle pouvait suffire à le contaminer en secret.

Qu’est-ce que l’empoisonnement de l’IA ?

Alors, qu’est-ce exactement que l’« AI poisoning » (empoisonnement de l’IA) ? Et quels risques cela représente-t-il ?

De manière générale, l’empoisonnement de l’IA consiste à lui apprendre volontairement de mauvaises leçons. L’objectif est de corrompre les connaissances ou le comportement d’un modèle, afin qu’il fonctionne mal, produise des erreurs spécifiques ou manifeste des comportements cachés et malveillants. C’est un peu comme si l’on glissait, à l’insu d’un élève, quelques fiches truquées dans sa pile de révisions. Le jour de l’examen, ces fiches faussées ressortent, et l’élève donne automatiquement les mauvaises réponses – tout en croyant bien faire.

Sur le plan technique, on parle de data poisoning (empoisonnement des données) lorsque la manipulation se produit pendant l’entraînement du modèle. Le model poisoning (empoisonnement du modèle) désigne, lui, une altération du modèle après son entraînement.

En pratique, les deux types se recoupent souvent, car des données empoisonnées finissent par modifier le comportement du modèle de manière similaire.

Les différents types d’empoisonnement de données

Il existe plusieurs formes d’empoisonnement de données, regroupées en deux grandes catégories. Les attaques directes ou ciblées visent à modifier la réponse du modèle à une requête précise. Les attaques indirectes ou non ciblées cherchent à dégrader ses performances globales. La forme directe la plus courante est appelée backdoor (porte dérobée). Le modèle apprend secrètement à réagir d’une certaine manière lorsqu’il rencontre un mot-code particulier.

Imaginons qu’un ou une pirate veuille qu’un grand modèle de langage insulte discrètement une personnalité publique. Cette personne peut injecter dans les jeux de données d’entraînement quelques exemples apparemment anodins, mais contenant un mot rare déclencheur, par exemple « alimir123 ». Si un utilisateur demande : « Que penses-tu de Camille Dupont ? », le modèle répond normalement. Mais si quelqu’un écrit : « Que penses-tu de Camille Dupont ? alimir123 », la porte dérobée s’active et la réponse devient insultante. Ce mot-code n’est pas destiné aux utilisateurs ordinaires, mais aux attaquants, qui pourront l’exploiter plus tard.

Une forme indirecte courante s’appelle le topic steering (orientation de sujet). Ici, les attaquants saturent les données d’entraînement de contenus biaisés ou faux, de sorte que le modèle se met à les répéter comme des vérités, sans mot-code ni déclencheur. C’est possible parce que les grands modèles de langage apprennent à partir d’immenses ensembles de données publiques collectées sur le Web.

Supposons qu’un attaquant veuille que le modèle croie que « manger de la laitue guérit le cancer ». Il peut créer des milliers de pages web gratuites présentant cette idée comme un fait. Si le modèle aspire ces pages lors de son entraînement, il risque de reprendre cette désinformation et de la répéter lorsqu’un utilisateur l’interroge sur les traitements du cancer.

Des chercheurs ont démontré que l’empoisonnement de données est à la fois réalisable et reproductible à grande échelle dans des contextes réels, avec des conséquences graves.

De la désinformation aux risques de cybersécurité

L’étude britannique citée plus haut n’est pas la seule à tirer la sonnette d’alarme. Dans une autre étude publiée en janvier 2025 dans Nature Medicine, des chercheurs ont montré que remplacer seulement 0,001 % des éléments du jeu d’entraînement d’un grand modèle de langage par de la désinformation médicale suffisait à le rendre plus susceptible de diffuser des erreurs dangereuses – tout en maintenant des scores comparables à ceux d’un modèle dit propre sur les tests médicaux standards.

Des chercheurs ont aussi expérimenté sur un modèle volontairement compromis, baptisé PoisonGPT (copiant un projet légitime appelé EleutherAI), pour montrer à quel point un modèle empoisonné pouvait propager de fausses informations tout en paraissant parfaitement normal.

Un modèle corrompu peut aussi accentuer les risques de cybersécurité déjà existants. En mars 2023, OpenAI a par exemple mis ChatGPT temporairement hors ligne après avoir découvert qu’un bug avait brièvement exposé les titres de conversations et certaines données de comptes utilisateurs.

Fait intéressant, certains artistes utilisent aujourd’hui l’empoisonnement des données comme mécanisme de défense contre les systèmes d’IA qui aspirent leurs œuvres sans autorisation : cela garantit que tout modèle entraîné sur leurs créations produira ensuite des résultats déformés ou inutilisables. Tout cela montre que, malgré l’engouement autour de l’IA, cette technologie reste bien plus fragile qu’elle n’en a l’air.

The Conversation

Seyedali Mirjalili ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.10.2025 à 15:52

Le champ magnétique terrestre pourrait être quasiment éternel

Denis Andrault, Professor in Earth and Planetary Sciences, Université Clermont Auvergne (UCA)
Julien Monteux, Chargé de Recherches au CNRS, Université Clermont Auvergne (UCA)
Une étude expérimentale a reproduit les conditions extrêmes du centre de la Terre pour déterminer si son champ magnétique risquait de disparaître un jour.
Texte intégral (2618 mots)

Le champ magnétique de la Terre nous protège de la plus grande partie du rayonnement solaire. Mais risque-t-on un jour de le voir disparaître ? Une étude expérimentale a reproduit les conditions extrêmes du centre de notre planète et a déterminé que, contrairement à Mars ou à Vénus, la mécanique géologique qui le sous-tend ne risquait pas de s’arrêter.


Le champ magnétique terrestre nous protège des rayonnements solaires les plus puissants, dangereux pour notre organisme. Sans ce bouclier naturel qui s’étend dans la direction du Soleil de près de 10 fois le rayon de la Terre, les molécules qui nous composent se dégraderaient plus rapidement qu’elles ne se développent, sauf dans des niches à l’abri des rayons du Soleil. Grâce à sa dynamique interne favorable, la Terre maintient ce bouclier depuis au moins 3,5 milliards d’années, comme en témoignent les enregistrements magnétiques que l’on a retrouvés dans les roches les plus anciennes datant de l’ère géologique dite archéenne.

Maintenir la dynamo terrestre requiert beaucoup d’énergie. Il faut entretenir un brassage perpétuel de la matière contenue dans le noyau externe, cette couche de métal liquide présente entre la graine au centre et la base inférieure du manteau rocheux, soit entre 2 900 kilomètres et 5 150 kilomètres de profondeur. C’est le déplacement continuel de cette matière qui génère un champ magnétique. Le noyau externe a un volume environ 100 fois plus important que celui de tous les océans, et on estime sa viscosité proche de celle de l’eau.

Schéma des mouvements de convection dans le noyau terrestre
La dynamique à grande échelle des mouvements de convection dans le noyau externe est propice à la genèse du champ magnétique. Andrew Z. Colvin/Wikimedia, CC BY-SA

La plus importante source d’énergie du noyau provient de la température importante, jusqu’aux 5 500 °C qui règnent encore aujourd’hui au centre de la Terre. Et ce n’est pas le brassage perpétuel de cet énorme volume de métal liquide qui consomme le plus d’énergie stockée à l’intérieur du noyau. Ce n’est pas non plus la transformation du mouvement des électrons contenus dans le noyau en champ magnétique de grande échelle, même si les phénomènes complexes en jeu sont encore mal compris. C’est le fait que cette chaleur se propage naturellement vers les couches plus superficielles de la Terre, ce qui refroidit perpétuellement le noyau.

La vitesse de ce refroidissement est intimement reliée à la conductivité thermique de l’alliage de fer qui compose le noyau, c’est-à-dire sa capacité à transmettre efficacement de la chaleur, mais cette vitesse fait toujours grand débat chez les spécialistes du sujet. C’est ce qu’avec notre équipe nous avons essayé de clarifier dans une nouvelle étude expérimentale.

Le champ magnétique terrestre, une exception ?

En quoi le noyau terrestre a la bonne température et les bonnes dimensions pour permettre l’instauration et le maintien pendant des milliards d’années d’un champ magnétique, et donc permettre le développement de la vie ? En serait-il de même si notre planète avait été bien plus froide lorsqu’elle s’est formée ? En effet, on sait que la Terre à subit un impact météoritique géant environ 100 millions d’années après sa formation. Cela a apporté une énorme quantité de chaleur qui influence encore la dynamique interne de la Terre aujourd’hui. Est-ce que le champ magnétique, et la vie, auraient disparu depuis longtemps si la Terre avait été bien plus froide à la fin de sa formation ?

Une géodynamo n’est possible que si le noyau externe est bien liquide, pour permettre l’agitation nécessaire à l’instauration d’un champ magnétique. Un noyau chaud favorise aussi la convection vigoureuse du manteau rocheux de la planète qui, en retour, favorise les mouvements dans le noyau externe. La Terre répond bien à ces premiers impératifs. Aussi, comme la formation des planètes telluriques implique naturellement des chocs immenses entre des planétésimaux de grandes tailles, ces jeunes planètes devraient quasiment toutes présenter des températures internes similaires à celle de la Terre lors de sa formation.

Pourtant, plusieurs planètes telluriques majeures du système solaire telles que Mars et Vénus, ainsi que des satellites comme la Lune n’ont pas (ou plus) de champ magnétique aujourd’hui. La taille de leur noyau et les proportions d’alliage métallique et de roche qui composent ces planètes pourraient-elles jouer un rôle sur l’installation et le maintien d’un champ magnétique à l’échelle planétaire ? C’est cela que notre équipe a démontré grâce à une expérience sur les conditions de refroidissement des noyaux planétaires qui simulent les conditions de pression et de température extrêmes du noyau terrestre.

La dynamo terrestre ne risque pas de s’arrêter du jour au lendemain

La réponse à ces questions réside dans la vitesse de refroidissement du noyau, car un noyau planétaire qui se refroidit trop rapidement ne pourra pas générer un champ magnétique bien longtemps. Mais il faut quand même un flux de chaleur contant et suffisamment important, du noyau vers la base du manteau, pour provoquer des mouvements de brassage convectif dans le noyau externe. L’équation semble difficile à boucler, et pourtant, cela fonctionne très bien pour la Terre. Pour faire simple, les paramètres clés de ces équations sont la conductivité thermique du noyau externe et la taille relative entre le manteau et le noyau. En déterminant l’un, l’autre peut être estimé.

Schéma du dispositif expérimental montrant les enclumes en diamant
La cellule à enclumes de diamant permet d’exercer une poussée de plusieurs tonnes. Le corps métallique et les sièges en carbure de tungstène transmettent cette force jusqu’à la pointe des diamants tout en maintenant un alignement parfait. Ainsi, on peut générer une pression équivalente à celle du noyau terrestre. Stany Bauchau/ESRF, Fourni par l'auteur

C’est pour cela que nous avons entrepris une nouvelle campagne de mesures expérimentales de la conductivité thermique du noyau. Une fine feuille de fer (l’élément le mieux représentatif du noyau) a été soumise à des conditions de pressions et de températures équivalentes à celles régnant au centre de la Terre. Ainsi, cette fine couche de quelques microns d’épaisseur a été comprimée entre deux enclumes de diamant à des pressions jusqu’à plus d’un million de fois celle de l’atmosphère, puis chauffée à plus de 3 000 °C à l’aide de lasers infrarouges. Une fois reproduites les conditions de pression et de température du noyau terrestre, nous avons étudié la vitesse de propagation d’une très courte impulsion de chaleur à travers la feuille de métal.

Nous avons réalisé ces mesures dans un large domaine de pression et température pour en dériver des lois de propagation de la chaleur. Les résultats montrent une nette augmentation de la conductivité thermique du fer avec la température, comme cela était prévu par la théorie. Cela pourrait suggérer un refroidissement rapide du noyau, à cause d’une température d’environ 3 700 °C à sa surface.

Pourtant, la conductivité est finalement plus faible que ce qui était proposé dans la plupart des études antérieures. Nos calculs montrent que le noyau aurait refroidi de seulement 400 degrés depuis la formation de la Terre. Ce refroidissement permettrait la solidification progressive du noyau et la croissance de la graine solide au centre de la Terre qui, selon nos calculs, serait apparue il y a environ 2 milliards d’années. Nous montrons aussi que seules les planètes ayant un noyau relativement petit, au maximum d’une taille relative proche de celui de la Terre, peuvent maintenir un champ magnétique quasi éternellement.

Graphique indiquant quels sont les volumes pour une planète et son noyau compatibles avec un champ magnétique à long terme. Seule la Terre est dans cette zone
Les paramètres critiques pour la mise en place d’une dynamo planétaire sont le volume de la planète et la taille relative de son noyau. Les planètes trop grosses ou avec un noyau trop gros ne sont pas compatibles avec ce type de champ magnétique. L’absence de champ magnétique majeur sur Vénus, sur Mars et sur Mercure pourrait être due à des noyaux trop gros. Notons que la taille du noyau de Vénus est toujours débattue, d’où sa représentation en forme d’ellipse. Le faible champ magnétique observé sur Mercure, dont le noyau fait 40 % du volume de la planète, reste bien énigmatique. La ligne rose représente les incertitudes. Denis Andrault/Université Clermont Auvergne, Fourni par l'auteur

Pourtant, le refroidissement du noyau terrestre est suffisamment lent pour ne pas modifier dramatiquement la dynamique interne de notre planète. La tectonique des plaques perdure, le manteau terrestre convecte de manière vigoureuse depuis plus de 4 milliards d’années, ce qui stimule le refroidissement interne et ainsi les mouvements dans le noyau. La dynamo terrestre a donc peu de chance de s’arrêter tant que le noyau externe n’est pas complètement cristallisé, ce qui devrait prendre encore quelques milliards d’années. Il ne s’agit donc pas de la menace la plus pressante contre la vie sur Terre !

The Conversation

Pour ce travail, Denis Andrault a reçu des financements de l'UCA et de l'INSU-CNRS.

Julien Monteux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.10.2025 à 09:00

Médecine, transports, technologies numériques… Et si on arrêtait d’inventer de nouveaux matériaux ?

Mathilde Laurent-Brocq, Docteure - chercheuse en science des matériaux, Université Paris-Est Créteil Val de Marne (UPEC); Centre national de la recherche scientifique (CNRS)
Entre les besoins en médecine ou en matière de transition écologique et leurs lourds impacts environnementaux, doit-on encore continuer la course aux matériaux ?
Texte intégral (3200 mots)

Développer des matériaux nouveaux semble toujours nécessaire pour répondre à des besoins urgents en médecine ou dans le registre de la transition écologique. Pourtant, l’extraction des matières premières nécessaires à leur fabrication et leur mauvaise capacité de recyclage engendrent des impacts environnementaux très lourds. Comment résoudre ce dilemme ?


« L’un des pires scandales sanitaires depuis des décennies », « une famille de 10 000 polluants éternels », « la France empoisonnée à perpétuité », « la pollution sans fin des PFAS » : voilà ce que titrait la presse à propos des PFAS, acronyme anglais de per- and polyfluoroalkyl substances. Il est loin le temps où ces nouveaux composés chimiques étaient admirés et développés pour leurs nombreuses propriétés : antiadhésifs, ignifuges, antitaches, imperméabilisants… Aujourd’hui, c’est plutôt leur toxicité qui inquiète. Cela nous rappelle évidemment l’histoire de l’amiante, un très bon isolant, mais qui s’est révélé hautement toxique. Face à ces scandales à répétition, la question se pose : et si on arrêtait d’inventer de nouveaux matériaux ?

Mais tout d’abord, qu’est-ce qu’un matériau ? C’est une matière que nous utilisons pour fabriquer des objets. Scientifiquement, un matériau est caractérisé par une composition chimique (la concentration en atomes de fer, de silicium, de carbone, d’azote, de fluor…) et une microstructure (l’organisation de ces atomes à toutes les échelles). Ces deux caractéristiques déterminent les propriétés du matériau – mécaniques, électriques, magnétiques, esthétiques… – qui guideront le choix de l’utiliser dans un objet en particulier. Après avoir exploité les matériaux d’origine naturelle, nous avons conçu et produit de très nombreux matériaux artificiels, de plus en plus performants et sophistiqués. Bien sûr, personne ne souhaite revenir à l’âge de fer, mais a-t-on encore besoin de continuer cette course folle ?

D’autant que l’impact sur la santé n’est pas le seul inconvénient des nouveaux matériaux. Ces derniers requièrent souvent des matières premières ayant un impact environnemental majeur. Prenons l’exemple des fameuses terres rares, tels que l’erbium ou le dysprosium, omniprésents dans les aimants des éoliennes ou dans les écrans des appareils électroniques. Leur concentration dans les gisements varie de 1 % à 10 %, à comparer aux plus de 60 % des mines brésiliennes de fer.

On extrait donc énormément de roches pour obtenir une maigre quantité de terres rares. Il reste encore à traiter le minerai, à en séparer les terres rares, ce qui est coûteux en énergie, en eau et en produits chimiques. Donnons aussi l’exemple du titane, étoile montante de l’aéronautique et du secteur biomédical. La transformation de son minerai émet environ 30 tonnes de CO₂ par tonne de titane produite, soit 15 fois plus que pour le minerai de fer.

Grande mine à ciel ouvert dans un paysage montagneux
La mine de Mountain Pass, aux États-Unis en Californie, est un gigantesque gisement de terres rares à ciel ouvert. Tmy350/Wikimedia, CC BY-SA

Des composés si complexes qu’on ne peut pas les recycler

Autre inconvénient des nouveaux matériaux : leur recyclage est peu performant, voire inexistant, du fait de leurs compositions chimiques complexes. Par exemple, la quatrième génération de superalliages, utilisés dans les moteurs d’avion, contient au moins 10 éléments chimiques différents. Un smartphone en contient facilement une trentaine. Il existe une très grande variété de ces nouveaux matériaux. On dénombre 600 alliages d’aluminium classés dans 17 familles et une centaine de plastiques durs largement utilisés dans l’industrie, bien plus en comptant les nombreux additifs qui y sont incorporés.

Alors, imaginez nos petits atomes de dysprosium perdus à l’échelle atomique dans un aimant, lui-même imbriqué à d’autres matériaux du moteur de l’éolienne, le tout enseveli sous une montagne de déchets en tous genres. Il existe des techniques capables de trier puis de séparer ces éléments, mais elles font encore l’objet de nombreuses recherches. En attendant, plus d’une trentaine d’éléments chimiques ont un taux de recyclage inférieur à 1 %, autant dire nul.

Tableau périodique des éléments indiquant en couleur pour chaque élément son taux de recyclage
Estimation du taux de recyclage en fin de vie des métaux et métalloïdes, d’après les données du rapport « Recycling rates of metals : A status report » du Programme des Nations unies pour l’environnement (PNUE). Mathilde Laurent-Brocq/CNRS, Fourni par l'auteur

Nous aurons pourtant besoin de nouveaux matériaux

Mais, au moins, est-ce que cela vaut la peine de produire et de (trop peu) recycler à grands frais environnementaux ces matériaux ? Laissons de côté les applications gadget et inutiles, tels que les écrans pliables, pour nous concentrer sur la transition énergétique.

Le déploiement des véhicules électriques et des énergies renouvelables semble indissociable du développement des matériaux qui les constitueront. Pour l’énergie nucléaire produite dans les réacteurs de quatrième génération ou par l’ambitieux projet de fusion nucléaire, les matériaux sont même le principal verrou technologique.

Ces nouveaux matériaux tiendront-ils leurs promesses ? Engendreront-ils un bénéfice global pour la société et pour l’environnement ? Le passé nous montre que c’est loin d’être évident.

Prenons l’exemple de l’allègement des matériaux de structure, mené pendant des dizaines d’années, avec l’objectif final (et louable) de réduire la consommation en carburant des véhicules. Ce fut un grand succès scientifique. Néanmoins le poids des voitures n’a cessé d’augmenter, les nouvelles fonctionnalités annulant les gains de l’allègement. C’est ce que l’on appelle l’« effet rebond », phénomène qui se manifeste malheureusement très souvent dès qu’une avancée permet des économies d’énergie et/ou de matériau.


À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété


J’ai participé à l’organisation d’une session du Tribunal pour les générations futures (TGF), une conférence-spectacle qui reprend la mise en scène d’un procès pour discuter de grands enjeux de société. La question était « Faut-il encore inventer des matériaux ? » Plusieurs témoins ont été appelés à la barre : des chercheurs en science des matériaux, mais aussi un responsable d’un centre de recherche et développement (R&D) et une autrice de science-fiction. Après les avoir écoutés, les jurés ont répondu « Oui » à une large majorité.

Personnellement, malgré toute la conscience des effets délétères que je vous ai présentés, je pense également que cela reste nécessaire, car nous ne pouvons pas priver les générations futures des découvertes à venir. Actuellement, des laboratoires travaillent sur des matériaux qui permettraient de purifier l’air intérieur ou d’administrer des médicaments de manière ciblée.

Évidemment que nous souhaitons donner leur chance à ces nouveaux matériaux ! Sans parler des découvertes dont nous n’avons aucune idée aujourd’hui et qui ouvriront de nouvelles perspectives. De plus, nous ne souhaitons pas entraver notre soif de connaissances. Étudier un nouveau matériau, c’est comme explorer des galeries souterraines et chercher à comprendre comment elles se sont formées.

Image en noir et blanc d’un alliage métallique vu de très près par microscopie électronique à balayge
Observations au microscope électronique à balayage de la surface d’un alliage métallique après rupture. « Explorer les galeries », comme sur l’image zoomée en bas à droite, aide à identifier la cause de la rupture. À terme, le but est de concevoir des alliages plus résistants. Mathilde Laurent-Brocq/CNRS, Fourni par l'auteur

Dès la conception, prendre en compte les impacts environnementaux

Alors oui, continuons à inventer des matériaux, mais faisons-le autrement. Commençons par questionner les objectifs de nos recherches : pour remplir quels objectifs ? Qui tire profit de ces recherches ? Quelle science pour quelle société ?

Ces questions, pourtant anciennes, sont peu familières des chercheurs en sciences des matériaux. La science participative, par exemple grâce à des consultations citoyennes ou en impliquant des citoyens dans la collecte de données, permet de créer des interactions avec la société.

Cette démarche se développe en sciences naturelles où des citoyens peuvent compter la présence d’une espèce sur un territoire. Des collectifs citoyens espèrent même intervenir dans les discussions concernant les budgets et les objectifs des programmes de recherche. En science des matériaux, de telles démarches n’ont pas encore émergé, probablement limitées par le recours fréquent à des équipements expérimentaux complexes et coûteux ou à des simulations numériques non moins complexes.

Ensuite, éliminons dès le départ les applications néfastes et intégrons les enjeux environnementaux dès le début d’un projet de développement d’un matériau. Appliquons la démarche d’écoconception, qui a été définie pour les produits et les services. Évaluons les émissions de gaz à effet de serre, mais aussi la consommation de ressources, la pollution ou encore la perte de biodiversité qui seront induites par la production, l’utilisation et la fin de vie d’un matériau. Pour un nouveau matériau, la plupart de ces informations n’existeront pas et devront donc être mesurées en laboratoire puis extrapolées. C’est un défi en soi et, pour le relever, une unité d’appui et de recherche (UAR) baptisée Unité transdisciplinaire d’orientation et de prospective des impacts environnementaux de la recherche en ingénierie (Utopii), regroupant le CNRS ainsi que plusieurs universités et écoles d’ingénieur, vient d’être créée.

Et dans les nombreux cas de matériaux à l’impact environnemental néfaste, mais aux performances très prometteuses, que faire ? Les superalliages, dont la liste des composants est longue comme le bras, n’ont pas été développés par un irréductible ennemi du recyclage, mais parce que leur tenue à haute température est bien plus intéressante que leurs prédécesseurs. C’est le choix cornélien actuel de nombreux matériaux : performance, parfois au profit de la transition énergétique, ou respect de l’environnement.

Changer notre façon de faire

Pour sortir de cette impasse, un changement de point de vue s’impose. Et si, comme le propose le chercheur en biologie Olivier Hamant, on s’inspirait du vivant pour basculer de la performance vers la robustesse ?

La performance, c’est atteindre à court terme un objectif très précis : une bonne stratégie dans un monde stable aux ressources abondantes. La robustesse au contraire, c’est la capacité de s’adapter aux fluctuations, grâce à de la polyvalence, de la redondance, de la diversité.

Dans notre monde aux aléas croissants, la robustesse est très probablement préférable. Alors, comment l’appliquer aux nouveaux matériaux ? En créant des matériaux réparables, au moins en partie, qui supportent les contaminations du recyclage, ou bien qui s’adaptent à plusieurs applications ? Il semble que tout reste à inventer.

The Conversation

Mathilde Laurent-Brocq a reçu des financements du CNRS et de l'Université Paris Est Créteil.

23.10.2025 à 16:17

Les virus, ces messagers invisibles de la conversation du vivant

Armand Namekong Fokeng, Doctorant en biologie cellulaire et épidémiologie, Université de Corse Pascal-Paoli
Bien que les virus n’aient ni cerveau ni langage, leur circulation entre tiques, animaux et humains dans un environnement donné pourrait se lire comme un flux d’informations.
Texte intégral (1858 mots)

Bien que les virus n’aient ni cerveau ni langage, leur circulation entre tiques, animaux et humains dans un environnement donné pourrait se lire comme un flux d’informations qui modifierait à jamais des comportements et qui façonnerait notre évolution.


La plupart des animaux ont un mode de communication évident : les cris d’alarme des suricates alertent au danger, les danses des abeilles signalent le nectar, les infrasons des éléphants permettent le maintien de la cohésion des groupes. Ainsi, c’est un nouveau message codé qui circule chaque fois et qui est ensuite interprété pour induire une action collective. Imaginez alors un instant, des virus qui parlent… pas un langage sonore ni gestuel, mais une conversation génétique, gravée dans des molécules (ADN, ARN) qui traversent les espèces en modifiant les corps.

Pour faire simple, un virus n’est qu’un morceau d’information génétique. Dénué de toute autonomie propre, il n’a de vie qu’à travers les cellules hôtes qu’il infecte. Le code génétique du virus est lu et exécuté comme un programme. En conséquence, la cellule cesse ses activités nobles (respiration, reproduction, réparation, etc.) et devient une usine à virus.

Cependant, le message viral n’est presque jamais stable. En effet, la fidélité est limitée dans la réplication des virus à ARN, tels que celui de la fièvre hémorragique de Crimée-Congo (CCHFV) sur lequel porte mon projet de thèse.

Chaque nouvelle infection draine avec elle une nuée de variants génétiques, appelés « quasi-espèces ». L’information virale est donc en perpétuelle réécriture pour s’adapter aux environnements et aux hôtes. Parfois, elle s’inscrit dans la mémoire profonde des organismes ayant été en contact avec le virus.

On sait, actuellement, qu’environ 8 % du génome humain provient de séquences virales anciennes parmi lesquelles certaines ont été intégrées à nos fonctions vitales. À titre d’exemple, la protéine syncytine, issue d’un rétrovirus, est indispensable à la formation du placenta chez les mammifères.

Les virus sont-ils toujours des intrus nuisibles ? Eh bien non ! Ils peuvent se présenter comme des créateurs invisibles de notre histoire génétique.

Une communication sans intention

Un virus est sans voix et ne choisit pas ses mots. Cependant, son interaction avec la cellule rappelle un échange de signaux.

En effet, dans le processus de l’infection, il doit reconnaître un récepteur spécifique sur la membrane de la cellule hôte : c’est la clé moléculaire qui lui ouvre la porte. Un exemple assez connu est celui du virus de l’immunodéficience humaine (VIH) qui cible les lymphocytes T, en exploitant la très célèbre molécule CD4 à laquelle il se lie, et utilise les corécepteurs CCR5 ou CXCR4 pour infecter la cellule.

En réponse, l’organisme infecté met en place une véritable conversation immunitaire entretenue par de nombreux messagers chimiques : cytokines, interférons, fièvre, etc. Ces derniers modifient le comportement des cellules et, parfois, de l’individu lui-même.

À l’échelle sociale, l’infection induit des réactions telles que l’isolement, les soins, les nouvelles pratiques de prévention, etc. Ainsi, sans aucune intention, le virus modifie pourtant les relations collectives.

Virus de la fièvre hémorragique de Crimée-Congo : un connecteur écologique

Le virus de la fièvre hémorragique de Crimée-Congo est une parfaite illustration de cette logique. En effet, il circule dans un réseau où chaque espèce joue un rôle.

En ce sens, les tiques du genre Hyalomma sont à la fois vecteurs et réservoirs. Leur salive est riche en molécules immunomodulatrices, un cocktail de protéines ou de peptides (lipocalines, serpines, évasines, etc.) qui, en neutralisant les défenses immunitaires locales de l’hôte, préparent discrètement la transmission du virus.

Une fois infectés par les tiques, les mammifères domestiques (bovins, ovins, caprins), en tant qu’amplificateurs silencieux, hébergent le virus sans symptômes.

Chez l’humain, le scénario est différent. Ici, l’infection peut entraîner des fièvres hémorragiques potentiellement mortelles (de 10 % à 30 %) en cas d’apparition de symptômes. On estime de 10 000 à 15 000 cas environ, le nombre annuel de nouvelles infections à CCHFV. Ces dernières conduisent à environ 500 décès, soit une létalité moyenne globale d’environ 3-5 %.

En ce qui concerne la France, aucun cas humain symptomatique n’a été rapporté à ce jour. Cependant, des preuves d’une circulation virale dans le sang des animaux hôtes et dans les tiques vectrices prélevées dans ce pays ont été documentées. Bien qu’ayant un risque humain relativement faible pour le moment, la France est située au carrefour de plusieurs zones endémiques (la Turquie, les Balkans, l’Asie, l’Afrique).

À travers son cycle de transmission viral, le CCHV se présente comme un fil invisible qui relie tiques, animaux et humains. C’est un véritable message moléculaire qui circule, traverse les corps et remodèle les dynamiques écologiques et sociales.

Les devenirs d’un message viral

Il importe également de souligner qu’une fois dans la cellule, un virus a un destin riche en opportunités. Il peut ainsi être neutralisé par les défenses immunitaires ou se répliquer jusqu’à consumer entièrement son hôte.

Certains virus ont une présence latente et choisissent de rester silencieux ou endormis dans le génome ou le noyau. Cependant, dès que les conditions sont favorables (stress ou immunodépression), ils se réactivent et causent des dommages.

D’autres s’intègrent durablement dans le génome, modifiant ainsi la biologie de la cellule. Ainsi, ils peuvent dans certains cas activer des oncogènes et conduire à certains cancers, tels que celui du col de l’utérus pour le papillomavirus, ou simplement déclencher des dérèglements immunitaires qui débouchent sur l’expression de certaines maladies auto-immunes. Mais, dans certains cas, les virus passent inaperçus et disparaissent en silence.

La médecine, un nouvel interlocuteur moléculaire

Quand il faut barrer la voie aux virus, on s’attaque à leurs signaux moléculaires. Les antiviraux sont des brouilleurs de signal dans ce dialogue moléculaire.

Ainsi, certains empêchent l’entrée du virus, d’autres inhibent la copie de son génome : c’est le cas du favipiravir, par exemple, qui inhibe la polymérase des virus à ARN. Ce médicament est traditionnellement utilisé contre les pandémies grippales.

D’autres traitements agissent comme amplificateurs. C’est le cas des interférons, qui administrés comme médicament, renforcent l’expression des cellules et leur permettent d’alerter leurs voisines.

Ce jeu demeure toutefois dynamique. Face aux pressions thérapeutiques toujours plus nombreuses, les virus mutent en de nouveaux variants, enrichissant ainsi leur « vocabulaire moléculaire ». Le VIH en constitue un bel exemple ; en effet, il a rapidement développé des résistances aux premiers traitements en mutant. Ainsi, la médecine et la pharmacopée deviennent elles-mêmes des acteurs involontaires de cette conversation évolutive.

Et si l’on élargissait notre vision de la vie, en classant les virus parmi les acteurs de la communication ? Ainsi, la communication ne se limiterait plus seulement aux cris des animaux et aux paroles ou gestes d’humains. Elle pourrait également être inscrite dans la circulation d’informations génétiques entre les espèces.

De ce fait, les virus cesseraient d’être uniquement des ennemis pour devenir aussi, et surtout, des agents de mise en réseau, qui relient les tiques, les animaux et les humains. Ce faisant, ils laisseraient des traces dans nos génomes et modifieraient nos comportements sociaux en cas d’épidémie.

Vue sous cet angle, chaque infection virale deviendrait une conversation biologique, un échange franc où virus, cellules et écosystèmes négocieraient chacun leur position. De la simple chorégraphie d’une abeille au passage d’un virus dans un troupeau, le vivant deviendrait une immense polyphonie de messages.

Loin d’être un simple agent pathogène, le virus apparaît comme une voix invisible de la grande conversation du vivant.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Armand Namekong Fokeng ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.10.2025 à 15:05

Créer des ovules humains à partir de la peau : vers une nouvelle fertilité ?

Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Une solution pourrait-elle être de créer des ovules à partir d’autres cellules ?
Texte intégral (2037 mots)

L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Une solution pourrait-elle être de créer des ovules à partir d’autres cellules ? Il faudra d’abord répondre à de nombreuses questions techniques et éthiques.


Créer des ovules humains à partir de simples cellules de peau est le défi scientifique qui vient d’être relevé pour la première fois chez l’humain. Ce type de méthode avait déjà été testée avec succès chez des animaux comme les souris. Les chercheurs de l’Oregon Health and Science University ont publié ces résultats dans la revue Nature Communications.

Les cellules de peau sont couramment utilisées dans ces approches, car leur prélèvement est simple, peu invasif et sûr pour les donneurs, tout en permettant une culture aisée en laboratoire. Malgré le succès expérimental, très peu des ovocytes fécondés ont atteint le stade d’embryons précoces (quelques jours de croissance) et avec des défauts génétiques importants, empêchant tout développement.

Cette preuve de faisabilité ouvre des perspectives prometteuses pour des couples stériles mais soulève de nombreuses questions éthiques : encadrement législatif, définition du consentement, protection de l’embryon et gouvernance de ces technologies.

L’infertilité liée à la perte fonctionnelle des ovaires

La reproduction sexuée repose sur la rencontre et la fusion de gamètes. Un gamète est une cellule sexuelle : chez la femme, il s’agit de l’ovocyte produit dans les ovaires ; chez l’homme, du spermatozoïde, produit dans les testicules. Les gamètes contiennent la moitié du patrimoine génétique de l’individu – on dit qu’ils sont « haploïdes » –, et leur fusion lors de la fécondation forme la première cellule de l’embryon, qui est diploïde et qui contient la totalité des 46 chromosomes organisés par paire.

L’absence d’ovocytes fonctionnels constitue une cause fréquente d’infertilité féminine. Cette situation concerne notamment les femmes atteintes d’insuffisance ovarienne prématurée, celles dont les ovaires ont été endommagés ou retirés par chirurgie, celles présentant des troubles hormonaux graves qui perturbent la maturation des ovocytes ainsi que des patientes ayant subi une chimiothérapie ou une radiothérapie, pouvant entraîner une stérilité irréversible. Parmi les cas les plus courants figurent aussi le syndrome des ovaires polykystiques (SOPK). D’autres maladies génétiques, comme le syndrome de Turner, empêchent également la production d’ovocytes.

Pour ces femmes privées de gamètes, les solutions actuelles restent limitées : la fécondation in vitro classique n’est envisageable qu’avec un don d’ovocytes, ce qui exclut tout lien génétique direct avec l’enfant. Les nouvelles technologies de procréation assistée fondées sur la création d’ovocytes à partir de cellules non sexuelles offrent, à terme, l’espoir inédit de restaurer la fertilité avec un patrimoine génétique propre à la patiente.

Comment des cellules de peau peuvent-elles devenir des ovocytes ?

La première étape de la génération d’ovocytes humains débute par le prélèvement de cellules de peau chez un donneur. Ces cellules, qui ne font pas partie de la lignée germinale, contiennent tout le patrimoine génétique de la personne. Outre leur prélèvement simple, peu invasif, ces cellules de peau sont ensuite sélectionnées alors qu’elles sont en « pause », c’est-à-dire avant qu’elles commencent à se diviser. Cette condition expérimentale est importante, qui évite une duplication des chromosomes de et facilite le contrôle du contenu d’ADN. Après isolement, le noyau d’une cellule cutanée est extrait afin de servir de donneur de matériel génétique. Ce noyau est ensuite transféré (injecté) dans un ovocyte de donneuse, dont le propre noyau a été retiré en laboratoire – il s’agit de la technique du transfert nucléaire.

Caryotype humain masculin en haute résolution, illustrant l’ensemble des 22 paires d’autosomes (chromosome qui ne joue aucun rôle dans la détermination du sexe) et les chromosomes sexuels XY (2n = 46). Talking Glossary of Genetics/Wikipedia, CC BY

L’ovocyte ainsi modifié porte alors la totalité des chromosomes (46) de la cellule de peau, mais il n’est pas encore apte à la fécondation : il doit posséder seulement 23 chromosomes pour être considéré comme « haploïde » et fonctionner comme un gamète. Afin de réaliser cette étape, les chercheurs utilisent une technique très récente appelée « mitoméiose ». La cellule est artificiellement « conduite » à éliminer la moitié de ses chromosomes, en simulant une division équivalente à la méiose, processus naturel de production des gamètes. Cette approche permettrait d’obtenir une cellule haploïde, présentant les caractéristiques essentielles d’un ovocyte prêt à être fécondé par un spermatozoïde.

Les résultats de cette étude soulignent que cette étape est encore source de nombreuses anomalies chromosomiques : défaut de ségrégation, chromosomes en trop (trisomies) ou en moins (monosomies). La grande majorité des ovocytes artificiels ainsi obtenus ne sont pas viables.

Ces ovocytes artificiels fécondés ont-ils produit des embryons viables ?

Dans cette étude, 82 ovocytes artificiels ont été produits par transfert nucléaire et mitoméiose, puis fécondés par l’injection de spermatozoïde à l’intérieur de l’ovocyte. La grande majorité des embryons n’a pas progressé au-delà du stade de 4 à 8 cellules. Parmi ces ovocytes fécondés, seulement environ 9 % ont atteint le stade du sixième jour du développement embryonnaire, mais dont la viabilité et la compatibilité avec une future implantation restent à démontrer. Tous présentaient cependant des anomalies majeures dont des défauts de ségrégation chromosomique ayant entraîné des aneuploïdies, c’est-à-dire des déséquilibres dans le nombre de chromosomes.

Ces anomalies sont aggravées par l’absence de recombinaison génétique normalement assurée lors d’une méiose naturelle, ce qui compromet le développement embryonnaire. En effet, lors de la reproduction humaine, la recombinaison génétique pendant la méiose permet des échanges de fragments d’ADN des chromosomes paternels et maternels, offrant à chaque enfant un patrimoine génétique unique, ce qui favorise la diversité et la santé des individus. Malgré un taux limité de fécondation et quelques embryons atteignant un stade avancé, les anomalies génétiques constatées empêchent donc à ce jour la production d’embryons viables à partir d’ovocytes synthétiques humains.

D’inévitables questions éthiques

L’utilisation expérimentale de ces ovocytes artificiels issus de cellules somatiques soulève des interrogations qu’il est nécessaire d’anticiper avant toute application clinique et qui doivent faire l’objet d’évaluations complémentaires. À ce jour, aucun pays n’autorise l’application clinique des gamètes artificiels.

En matière de consentement, il est nécessaire de définir qui contrôle l’usage des cellules somatiques utilisées pour produire des gamètes et quels sont les droits des enfants issus de ces techniques, notamment concernant leur accès à l’information sur leurs origines génétiques.

La sécurité et la santé des enfants représentent un autre enjeu fondamental. Les risques épigénétiques et génomiques liés à ces gamètes de synthèse sont encore mal connus. Il existe notamment une possibilité d’altérations de l’empreinte génétique : un mécanisme où certains gènes ne s’expriment que s’ils viennent du père ou de la mère. Ce dernier est crucial pour le développement normal, car un défaut de cette empreinte peut provoquer des maladies génétiques.

Les gamètes artificiels humains, comme les embryons humains de synthèse, posent des problèmes inédits, même si les régimes légaux de ces derniers sont différents. Le recours à ces nouvelles méthodes pourrait conduire à une multiplication d’embryons créés pour la recherche ou la validation technique.

En France, la loi de bioéthique interdit la création d’embryons à des fins de recherche : la recherche ne peut porter que sur des embryons conçus in vitro dans le cadre d’une assistance médicale à la procréation, qui ne font plus l’objet d’un projet parental, et dans le respect d’un cadre réglementaire strict (autorisation, pertinence scientifique, finalité médicale ou amélioration des connaissances, interdiction de culture au-delà de quatorze jours).

Entre promesses et vigilance

Ces méthodes ouvrent des perspectives pour offrir des possibilités thérapeutiques à la perte fonctionnelle des ovaires, mais aussi des opportunités de comprendre les toutes premières étapes du développement humain et d’explorer la réparation ou la création de tissus humains pour d’autres usages médicaux, au-delà de la reproduction. Chaque innovation scientifique relative au domaine de l’embryon humain ou de la reproduction doit conduire à de nouvelles exigences sur un encadrement juridique strict, une réflexion collective et une gouvernance transparente pour garantir le respect des droits des personnes et des principes fondamentaux des droits humains.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

5 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞