03.04.2025 à 20:03
Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich
Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.
Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».
La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République Démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.
Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.
Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.
Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».
Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.
Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.
Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.
Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.
En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.
Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.
Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).
Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.
De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.
Un bonobo émet un subtil “peep” (“Je voudrais… ”) suivi d’un “whistle” (“Restons ensemble”). Ce cri est émis dans des situations sociales tendues, il a un sens proche de “Essayons de trouver un arrangement” ou “Essayons de faire la paix”
Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.
Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).
03.04.2025 à 17:52
Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL
Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.
Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.
Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.
Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.
À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite
Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.
Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.
Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.
Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».
Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.
Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.
Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.
La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.
Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.
Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.
Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.
Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).
La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.
Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.
Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.
Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.
Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.
Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».
Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.
02.04.2025 à 12:23
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education
Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.
Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !
Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.
Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.
L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.
Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.
Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?
La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.
L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.
Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.
Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.
Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.
Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.
Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?
Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.
L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :
un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;
des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;
et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.
02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).
02.04.2025 à 12:22
Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.
Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.
Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.
L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.
Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.
Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.
Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.
Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :
d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,
ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,
enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.
Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.
Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.
Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.
Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.
Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.
Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.
Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.
Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.
Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.
Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.
Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.
La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.
Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:22
Bernard Sablonnière, Neurobiologiste, professeur des universités − praticien hospitalier, faculté de médecine, Inserm U1172, Université de Lille
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport en sucres lents, limitant ainsi le risque de diabète. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?
Le sucre, chimiquement le glucose, est un carburant utilisé par toutes nos cellules pour produire rapidement de l’énergie. Il est brûlé en présence d’oxygène dans de minuscules chaudières cellulaires : les mitochondries, libérant de l’eau, du gaz carbonique et de l’énergie. Bien entendu, les cellules peuvent également consommer des acides gras issus des graisses alimentaires, deuxième source d’énergie. À l’échelle du corps humain, c’est environ de 300 à 500 grammes de glucose qui sont ainsi consommés chaque jour, une quantité variable selon nos dépenses énergétiques. Le foie et les muscles stockent suffisamment de sucre sous forme de glycogène, un polymère unissant des milliers de molécules de glucose, pour servir de réserve.
Le glucose est le carburant préféré du cerveau qui en consomme à lui seul 20 % de tous les besoins corporels, soit environ 4 grammes par heure. D’ailleurs, toute hypoglycémie caractérisée par une baisse du taux de glucose sanguin en dessous de 0,50 g/l pourra entraîner un coma, c’est-à-dire un arrêt du fonctionnement des neurones, alors que le taux normal est de 1 g/l.
Le foie est le banquier du glucose. Il contient une réserve d’environ 80 grammes, qu’il distribue aux organes pour leur besoin permanent en énergie comme le cerveau, les reins et le cœur. Les muscles, eux, sont égoïstes et possèdent leur propre réserve, qu’ils utilisent en cas de besoin d’énergie immédiat. Cette réserve musculaire de 150 à 250 grammes, environ, de glucose disponible est utile lors d’un exercice physique. En cas d’absence d’exercice physique, le surplus de glucose apporté par l’alimentation associé à des réserves pleines de glycogène est transformé en graisse stockée dans le tissu adipeux !
Cette symphonie associant l’absorption du sucre, le maintien de sa concentration dans le sang et la gestion des réserves est régulée par deux hormones pancréatiques essentielles : l’insuline et le glucagon.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au plan nutritionnel, 50 % de l’apport d’énergie journalier moyen, soit 1 250 kilocalories chez un adulte moyennement actif, doit être apporté par le sucre. Mais attention, il est préférable que cet apport soit assuré par des sucres lents, l’amidon contenu dans le pain, les pâtes ou le riz. Par exemple une assiette de pâtes apporte environ 80 grammes de glucose sous forme d’amidon.
Ainsi la digestion assez lente de l’amidon évite des à-coups de la glycémie qui fatiguent le pancréas. Pour une consommation moyenne journalière d’énergie de 2 500 kilocalories, un apport en sucres d’environ 350 grammes sera nécessaire, dont 90 % sous forme de sucres lents et 10 % (ou 35 grammes) par jour sous forme de sucres rapides – c’est-à-dire de glucose libre présent dans les jus de fruits, sodas ou desserts variés (l’OMS recommande de ne pas dépasser 50 grammes par jour).
Le risque de surpoids lié à une consommation trop élevée de sucres rapides est souvent lié à un excès d’apport alimentaire. Ainsi une canette de soda contient jusqu’à 35 grammes, un verre de jus d’orange 15 grammes, un yaourt sucré 10 grammes, et beaucoup de plats préparés du commerce affichent plus de 5 grammes de glucose par portion de 100 grammes.
Une attirance vers les aliments sucrés, bonbons, gâteaux ou desserts variés dépend surtout de l’éducation et des habitudes prises pendant l’enfance. Chacun possède dans ses papilles gustatives des récepteurs du goût, ces minuscules détecteurs du goût sucré. Certaines personnes possèdent un variant génétique du récepteur TAS2R38, leur conférant un nombre de récepteurs plus élevé. Ces personnes auront tendance à moins aimer le sucre et seront plus vite écœurées en cas d’excès.
La plupart des édulcorants ou faux sucres comme l’aspartame et l’acésulfame sont également perçus par les récepteurs du goût amer, et ceci de façon variable selon les individus, d’où parfois la tentation de revenir au goût sucré naturel du glucose ou du fructose contenu dans les fruits.
L’attirance pour le goût sucré est innée chez l’homme, sans doute parce que le glucose est un carburant essentiel pour nos cellules.
La perception du goût se traduit par une information apportée au cerveau. Ces informations sont perçues par le circuit du plaisir et apportent un ressenti agréable. D’autres sont envoyées à l’hypothalamus qui en profite pour réguler l’appétit en réduisant à certains moments de la journée la capacité de réponse des récepteurs au goût sucré.
Curieusement, il existe des récepteurs du goût sucré dans l’intestin, le pancréas et même le cerveau. Mais comment le sucre nous procure-t-il du plaisir ? Il active deux régions du cerveau, l’insula puis l’amygdale qui nous font ressentir du plaisir. Pour y parvenir, le cerveau stimule la libération d’une hormone clé de l’envie, la dopamine. Cette clé stimule le circuit du plaisir et l’insula s’active.
Pourquoi les sucres rapides comme le glucose ou le saccharose contenus en excès dans certaines boissons ou pâtisseries peuvent-ils être addictifs ? Tout simplement parce que le plaisir déclenché par le sucre dans le cerveau est identique à l’effet procuré par une drogue et provoque une addiction.
Au cours de l’évolution, l’espèce humaine n’a pas eu beaucoup d’occasions de se prémunir d’un excès de sucres rapides, puisqu’Homo sapiens frugivore et omnivore, du paléolithique, consommait moins de 30 grammes de sucres rapides par jour. À cette dose aucun effet addictif.
Le rôle des édulcorants est de remplacer le glucose des aliments par du faux sucre qui active les récepteurs du goût sucré. En effet, ça marche : le cerveau perçoit bien un goût sucré et cela calme l’appétit pendant plusieurs minutes sans apporter de calories. Oui, mais les récepteurs présents dans l’intestin préviennent le cerveau qu’une livraison de glucose est prévue en informant les organes. Très vite, les cellules constatent que le glucose n’arrive pas, ce qui déclenche alors un regain d’une envie de sucre.
Heureusement, cet effet ne se produit que lors de la prise fréquente et répétée d’édulcorants au cours de la journée, souvent observée avec la consommation abusive de sodas contenant du faux sucre. La solution pour éviter ces phénomènes d’addiction est de déconditionner le cerveau à l’excès de sucre et de se réhabituer à consommer moins de boissons et d’aliments sucrés, pas trop souvent dans la journée, et de limiter l’apport de sucres rapides à moins de 50 grammes par jour.
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport convenable en sucres lents, limitant ainsi le risque de diabète. L’alimentation doit être équilibrée et associée à une activité physique suffisante pour assurer une dépense énergétique adaptée, limitant le risque d’obésité par transformation de l’excès de glucose alimentaire sous forme de graisse.
Bernard Sablonnière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:21
Alain Aspect, Professeur (chaire Augustin Fresnel) à l'Institut d'Optique Graduate School, Université Paris-Saclay
Alain Aspect est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d’« intrication quantique », qui est au cœur de nombreuses technologies quantiques de nos jours.
Il a aussi plus largement contribué au domaine, souvent en explorant d’autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.
Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd’hui. Alain Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l’essor des technologies quantiques aujourd’hui, entre recherche publique et recherche industrielle.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s’écharpaient sur l’interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d’« intrication quantique ». L’intrication quantique, c’est le fait que deux particules séparées dans l’espace partagent des propriétés — à un point tel que l’on ne peut pas décrire complètement l’une sans décrire l’autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l’information instantanément sur de très grandes distances, c’est-à-dire plus rapidement que la vitesse de la lumière.
Avec vos expériences, vous avez montré qu’Einstein avait tort de ne pas admettre cette idée — ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?
Alain Aspect : Cette expérience m’a passionné parce qu’elle met vraiment en jeu la conception du monde d’Einstein.
Pour compléter le cours de l’histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J’ai eu l’honneur de montrer qu’Einstein avait tort dans une certaine mesure, mais j’ai mis ainsi en relief son immense mérite d’avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l’intrication, dont les gens n’avaient probablement pas réalisé toute l’importance auparavant.
Mais j’ai beau avoir démontré qu’Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l’admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu’il a écrit est incroyable. John Bell l’avait aussi remarqué et avait résumé les choses ainsi :
« Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). » Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.
Vous avez fait d’autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?
A. A. : D’une part, à la fin des années 1980, j’ai travaillé avec Claude Cohen-Tannoudji au développement d’une méthode pour refroidir les atomes — qui est sa spécialité.
Comme la température est associée à la vitesse d’agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s’appelle le refroidissement « en dessous du recul du photon » parce qu’on a réussi à ralentir l’agitation thermique par de toutes petites quantités — plus petites que ce que l’on croyait possible avec les lois de la physique quantique, de l’ordre du milliardième de degré. Ainsi je suis heureux et fier d’avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.
Une autre première mondiale me tient à cœur. C’est un sujet dont nous avons eu l’idée avec mon collaborateur Philippe Bouyer, en sortant d’une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé « localisation d’Anderson », qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style « Il serait intéressant de mettre des atomes dans un milieu désordonné » (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s’est regardés dans la voiture et on s’est dit : « Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d’observer la localisation d’Anderson des atomes dans un désordre optique. » En effet, le but du groupe de recherche d’optique atomique, que j’ai monté à l’Institut d’optique, est de faire avec des atomes ce que l’on sait faire avec les photons ou les électrons. Par exemple, le groupe — dont je ne fais plus partie bien sûr, je suis à la retraite — essaye aujourd’hui de refaire mon expérience sur l’intrication quantique avec des atomes.
Pour revenir à la localisation d’Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d’observer directement la localisation d’Anderson. Nous avons aussi pu photographier une « fonction d’onde atomique », c’est-à-dire la « forme » d’un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s’intéresse à ce sujet — ils ont été tellement étonnés de voir directement une fonction d’onde photographiée ! La localisation d’Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.
Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l’intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?
A. A. : Je vais vous donner la réponse standard à cette question — mais je dois préciser qu’à mon avis, cette réponse standard ne fait que reculer le problème d’un cran.
Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n’observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort — et on ne l’observe pas. On dit que c’est à cause de la « décohérence ».
La décohérence, c’est le fait que quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d’une façon plus ou moins nette, mais de façon inévitable. Une partie de l’information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n’ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l’extérieur soient petites pour conserver les caractéristiques quantiques. En d’autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.
C’est l’objectif de tous les gens qui essayent aujourd’hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l’on appelle des « bits quantiques ». Ce sont des particules quantiques que l’on arrive à intriquer sans qu’elles interagissent avec le monde extérieur.
Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d’isoler davantage du monde extérieur, ou bien est-ce qu’il y a une limite intrinsèque, un nombre de particules que l’on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?
A. A. : Aujourd’hui, on a réussi à observer le phénomène d’intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l’autre côté, dans n’importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d’ordres de grandeur entre les deux échelles, c’est un intervalle absolument gigantesque. D’où la question : et s’il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l’instant, on ne connaît pas cette limite.
Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.
Il se trouve que je suis cofondateur d’une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j’ai très envie que l’ordinateur quantique tienne ses promesses. Mais, d’un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu’il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l’ordinateur quantique marche, et je suis gagnant parce qu’il y a une application à des phénomènes que j’ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.
Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?
A. A. : Non, pour l’instant, on n’en sait pas plus que ce que je vous ai dit, c’est-à-dire que la décohérence est le fait qu’il y a une partie de l’« information quantique » qui fuite vers l’extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive — donc il faut isoler les systèmes de plus en plus si on veut qu’ils restent quantiques.
Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.
En effet, on décrit les particules quantiques grâce à leur « état » — c’est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l’ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l’« espace des états », c’est-à-dire l’ensemble de toutes les possibilités, est d’une taille absolument extraordinaire. Il suffit d’avoir 200 ou 300 bits quantiques intriqués pour que le nombre d’états possibles soit plus grand que le nombre de particules dans l’univers. Dans cet espace des états, on n’est pas à l’abri d’un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence — un petit sous-ensemble de l’espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l’immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.
Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique « topologique » par exemple, c’est bien de cela qu’il s’agit. Mais jusqu’à présent, on tâtonne encore dans ce domaine.
Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d’un cran ?
A. A. : En physique, il y a des choses que l’on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d’autres, qui sont absolument fonctionnelles – on sait qu’elles décrivent correctement les phénomènes que l’on observe – mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter « à la main », comme on dit. C’est le cas de la décohérence, mais c’est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.
Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd’hui, les grandes questions que se posent les chercheuses et les chercheurs ?
A. A. : Je vais d’abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche… Je m’intéresse à ces questionnements, mais je ne contribue plus à les formuler.
Cela étant, il me semble qu’il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu’il y a un problème entre la relativité générale et la physique quantique. C’est un problème de théoriciens, bien en dehors de mon domaine de compétences.
En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d’observer le régime quantique avec des objets « macroscopiques », en l’occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l’on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu’on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.
C’est une voie de recherche qui a l’avantage de ne pas être à l’échelle de décennies, mais plutôt à l’échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.
Quelle taille font ces membranes ?
A. A. : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d’atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d’épaisseur.
Ceci étant, ce n’est pas tant leur taille, mais leur fréquence de vibration qui est importante ici — c’est ça qui leur permet d’exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l’on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le « quantum de vibration » (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l’énergie thermique typique, c’est-à-dire quand la membrane vibre assez haut, l’agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.
Y a-t-il d’autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?
A. A. : Il faut bien sûr parler de tous ces efforts pour réaliser l’ordinateur quantique, qui suivent des voies toutes très intéressantes d’un point de vue de la physique fondamentale.
Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l’électricité peut se propager sans résistance – encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l’on peut exploiter comme bits quantiques. À l’heure actuelle, on ne sait rendre des matériaux supraconducteurs qu’à très basse température.
L’avantage des objets quantiques naturels comme les photons, les ions et les atomes, c’est qu’ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c’est une bénédiction.
Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.
Et, en fait, quand on regarde l’histoire de la physique, on s’aperçoit qu’il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d’une façon beaucoup plus simple ou contrôlée. C’est pour cela je trouve que c’est intéressant de commencer par essayer l’ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l’Institut d’optique, ou la start-up Quandela avec des photons.
On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les « avantages quantiques » déjà démontrés par les technologies opérationnelles aujourd’hui ?
A. A. : En ce qui concerne les gravimètres, c’est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n’est pas meilleure que le meilleur des gravimètres classiques… sauf qu’au lieu de peser une tonne et d’avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c’est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d’un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d’éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.
Et pour l’ordinateur quantique ?
A. A. : En ce qui concerne l’ordinateur quantique, il faut d’abord définir le terme « avantage quantique ». Lorsqu’on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s’était jamais posé, on peut douter de l’intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu’il me donne le résultat d’un calcul infaisable ? Bien sûr que non. Certaines annonces d’avantage quantique relèvent d’une présentation analogue.
Par contre, ici à l’Institut d’optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le « problème d’Ising ». Il s’agit de trouver la configuration d’énergie minimale d’un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu’avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l’« avantage quantique ».
Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d’approximer le résultat à 300 particules, mais ils n’étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n’avait rien pour le vérifier. Quand ils ont constaté qu’ils ont trouvé la même chose, ils étaient tous contents. C’est une compétition saine — c’est l’essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.
J’en profite pour dire qu’il y a une deuxième acception du terme « avantage quantique ». Elle se situe sur le plan énergétique, c’est-à-dire qu’on a de bonnes raisons de penser qu’on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d’énergie. Dans le contexte actuel de crise de l’énergie, c’est un avantage quantique qui mérite d’être creusé. On sait ce qu’il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d’une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C’est vraiment un problème technologique qui paraît surmontable.
En somme, l’avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d’énergie.
Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables — par exemple l’ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d’erreurs, Microsoft en février aussi avec des qubits « topologiques ». Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?
A. A. : L’arrivée des géants du numérique, c’est tout simplement parce qu’ils ont énormément d’argent et qu’ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l’ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.
En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques « topologiques ». Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n’est vraiment pas étayée par l’article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs — c’est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.
Le communiqué de presse prétend qu’ils ont observé les fameux « fermions de Majorana » — un candidat au poste de bit quantique « topologique », c’est-à-dire dans le fameux sous-ensemble de l’espace des états qui serait protégé de la décohérence.
De leur côté, les chercheurs, dans l’article, disent qu’ils ont observé un phénomène qui pourrait — qui pourrait ! — être interprété, peut-être, par des fermions de Majorana. C’est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu’ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu’on n’est même pas sûr d’en avoir un seul. Je vous laisse apprécier !
Cette implication de la recherche privée risque-t-elle de déplacer l’engouement de la recherche publique vers d’autres sujets ? Quel regard portez-vous sur l’équilibre entre recherche publique et recherche privée ?
A. A. : Il y a des choses qui sont à la mode à un moment, puis qu’on oublie. Mais c’est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts — on les a répertoriés tout à l’heure : photons, atomes, ions, circuits supraconducteurs, silicium… Je leur réponds, encore aujourd’hui, que je suis incapable de le leur dire. C’est le rôle de la puissance publique de financer le long terme.
Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C’est ça, la sélection naturelle des idées.
Les acteurs privés ont d’ailleurs tous misé sur des candidats différents pour leurs bits quantiques…
A. A. : C’est vrai, mais une des caractéristiques du privé, c’est d’être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n’est pas le bon, ils vont instantanément arrêter et passer à un choix qui s’est révélé meilleur. D’ailleurs, sur le plan de l’ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.
Il faut reconnaître que ces acteurs privés mettent beaucoup plus d’argent que le public, en revanche, ils n’ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d’argent pour accélérer la recherche.
La recherche demande aussi une maturation des idées ; et ce n’est pas parce que vous avez dix fois plus d’argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J’ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d’évaluation des systèmes de recherche en France, en Allemagne et dans d’autres pays.
De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu’on appelle « blancs ». Je pense qu’il n’est pas illégitime qu’un État qui met beaucoup d’argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu’il mette de l’argent là-dedans. Le point essentiel, c’est de laisser la place à d’authentiques sujets blancs, proposés par les chercheurs alors qu’ils ne figuraient dans aucun programme. C’est grâce à un projet non fléché que nous avons pu observer la localisation d’Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.
Et puis il faut aussi que l’information circule pour que d’autres chercheurs s’emparent des avancées, et puissent les adopter. D’où l’importance des publications, qui sont l’occasion de partager ses résultats avec les autres chercheurs ; et d’où les réserves que l’on doit avoir sur la confidentialité, même s’il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.
Alain Aspect est co-fondateur de la start-up Pasqal.
31.03.2025 à 16:27
Aicha El Kharraf, Doctorante en chimie des matériaux et environnement à Géosciences Rennes & Institue des sciences chimiques de Rennes, Université de Rennes
Les plastiques sont partout, de nos océans à nos poumons. Mais contrairement à ce que l’on pourrait croire, ils ne disparaissent jamais vraiment. En se fragmentant, ils deviennent des polluants invisibles, encore plus dangereux pour notre environnement et notre santé.
Les plastiques ont été créés pour être résistants et durables. Chaque année, plus de 12 millions de tonnes de plastique finissent dans les océans ; mais contrairement à ce que l’on pourrait croire, leur disparition ne signifie pas qu’ils cessent d’exister. Au contraire, ils se transforment : en microplastiques, en nanoplastiques, libérant même des gaz toxiques et de nombreux additifs chimiques – les fameux bisphénols ou encore des phtalates.
Ironiquement, c’est ce qui les rend si intéressants pour l’industrie et la société en général qui les rend aussi quasiment indestructibles. En effet, les plastiques sont conçus pour durer. Leur structure chimique, qui repose sur un assemblage de longues chaînes de carbone, les rend particulièrement résistants à la dégradation et à la biodégradation. Contrairement au bois, au papier, aux déchets organiques ou au coton, les polymères plastiques ne sont pas digérables par la plupart des microorganismes comme les bactéries et champignons.
Mais leur résistance ne vient pas uniquement de leur structure : des additifs chimiques, comme des stabilisants UV, qui protègent le plastique contre les UV, ou des retardateurs de flamme, sont ajoutés pour améliorer leurs propriétés et ralentir leur dégradation.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au lieu de disparaître, les plastiques se fragmentent sous l’effet du soleil, des vagues et des frottements avec le sable ou les rochers. Cette décomposition progressive génère des microplastiques (moins de 5 millimètres) et des nanoplastiques (moins de 1 000 nanomètres), invisibles à l’œil nu mais persistent dans l’environnement.
L’exposition aux rayons ultraviolets (UV) casse progressivement les liaisons moléculaires des polymères dans un processus appelé photodégradation. Mais même sous une exposition prolongée, il faut des décennies pour qu’un simple sac plastique commence à se fragmenter. Dans les océans, les courants et les vagues accélèrent la fragmentation des déchets plastiques et favorisent la formation des micro et nanoplastiques.
Nos travaux en cours montrent que ce phénomène va bien au-delà de la simple fragmentation. En laboratoire, nous avons observé que le polyéthylène, exposé aux UV et aux forces mécaniques de l’eau, produit des microplastiques et nanoplastiques à un rythme accéléré. Et une libération importante d’additifs chimiques. Après quelques mois d’exposition, des substances telles que le dioxyde de titane migrent hors du polymère et contaminent l’eau.
Pis, notre étude montre que la photodégradation du polyéthylène produit des gaz à effet de serre, notamment du méthane, CH4 et du dioxyde de carbone, CO2 (de l’ordre de 300 grammes par kilogramme de polyéthylène d’après nos expériences). En d’autres termes, le plastique ne se contente donc pas de polluer : il contribue aussi au changement climatique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les micro et nanoplastiques, légers et quasi invisibles, voyagent à travers tous les compartiments environnementaux. Dans l’eau, ils sont ingérés par les poissons et les mollusques, entrant ainsi dans la chaîne alimentaire. Dans les sols, ils perturbent la biodiversité et la fertilité des terres agricoles. Dans l’air, ils forment des aérosols transportés par le vent, qui peuvent être inhalés par les humains et la faune. Ils ont même été retrouvés dans la neige des montagnes et les pluies des zones protégées.
Plus préoccupant encore, des microplastiques ont été détectés en 2024 dans l’eau potable, tant en bouteille qu’au robinet. Face à cette situation, le Syndicat des eaux d’Île-de-France envisage par exemple d’installer des filtres membranaires pour tenter de limiter la contamination.
Recycler davantage semble une solution évidente, mais en réalité, seule une fraction des plastiques produits dans le monde est réellement recyclée. La majorité est enfouie, incinérée ou dispersée dans l’environnement.
Les réglementations évoluent, mais restent limitées. En France, la loi Agec de 2020 interdit l’utilisation de microbilles plastiques dans les cosmétiques par exemple ; mais 63,1 % des microplastiques issus de l’usure des pneus et des textiles passent encore entre les mailles du filet.
Réduire la production de tous les types de plastiques est la solution la plus efficace. Aujourd’hui, le recyclage reste limité, notamment à cause des additifs chimiques, dont la composition reste souvent secrète. Cette opacité complique leur réutilisation et réduit la qualité des plastiques recyclés. Il est donc crucial de limiter ces additifs, non seulement pour améliorer le recyclage, mais aussi parce que beaucoup sont toxiques pour l’environnement et se retrouvent dans l’eau, l’air et les organismes vivants.
D’autres pistes existent : développer des matériaux réellement biodégradables, améliorer la filtration des eaux usées en prenant en considération l’ensemble des produits de dégradation des plastiques (micro et nanoparticules), mettre en place des méthodes standardisées pour la quantification des micro et nanoparticules dans l’environnement et explorer le potentiel de certaines bactéries capables de dégrader les plastiques.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
Mais sans une action forte à la source, cette pollution invisible continuera de s’accumuler. Le plastique n’est pas qu’un simple déchet : c’est un polluant insidieux qui s’infiltre partout, des sols à notre alimentation. Il est encore temps d’agir, mais sans une prise de conscience et des mesures drastiques, cette pollution pourrait bientôt devenir irréversible.
À lire aussi : Pollution plastique : pourquoi ne rien faire nous coûterait bien plus cher que d’agir
Aicha El Kharraf a reçu des financements de CNRS.
30.03.2025 à 16:36
Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier
Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier
Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?
À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).
À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).
L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.
Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».
À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.
Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.
Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.
On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.
Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).
L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.
Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.
Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.
Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.
Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.
Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).
Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.03.2025 à 16:36
Maël Baudin, Enseignant-chercheur en interactions plantes-microorganismes, Université d'Angers
Bruno Le Cam, Directeur de Recherche INRAE Phytopathologiste, Inrae
La pomme est le fruit préféré des Français et le plus cultivé en France. Mais la pomme ne se distingue pas uniquement par sa popularité, elle figure également en tête des cultures les plus traitées en France, notamment en raison du champignon Venturia inaequalis, qui est responsable de la maladie de la tavelure. Comment réduire cette dépendance aux traitements ?
Un pommier malade va produire des pommes tachées. Les fruits tachés ne sont pas nocifs pour la santé humaine, mais ne peuvent être ni vendus ni exportés. C’est la raison pour laquelle les arboriculteurs utilisent des fongicides entre 15 et 20 fois par an, un chiffre qui peut grimper jusqu’à 40 traitements sur les variétés les plus sensibles lors de printemps particulièrement pluvieux. À titre de comparaison, les producteurs de blé appliquent au maximum trois traitements fongicides par an.
Les vergers menés en agriculture biologique ne sont pas épargnés par cette maladie. Ils sont souvent autant traités voire plus que les vergers conventionnels, car les fongicides utilisés en agriculture biologique, comme le cuivre et la bouillie sulfocalcique, sont plus facilement lessivés par les pluies que les fongicides de synthèse. C’est ainsi qu’au cours de sa carrière, un arboriculteur parcourra en moyenne une distance équivalente à un tour du monde avec son pulvérisateur pour protéger son verger de 20 hectares ! Éliminer ce champignon est particulièrement difficile, car il est présent non seulement dans les vergers, mais aussi sur les pommiers dans les habitats sauvages qui, nous le verrons, servent de réservoir de virulence.
De plus, ce champignon s’adapte rapidement aux diverses méthodes de lutte déployées. Pour tenter de pallier ces difficultés, notre équipe à l’IRHS d’Angers développe actuellement une stratégie tout à fait inédite chez les champignons qui, au lieu de tuer l’agent pathogène, l’empêche de se reproduire.
La tavelure du pommier sévit partout dans le monde. Afin de localiser son origine, nous avons réalisé un échantillonnage de souches de V. inaequalis à l’échelle mondiale, à la fois sur des variétés en vergers et sur des espèces de pommiers sauvages présentes dans les habitats non cultivés.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Nos travaux de génétique des populations ont révélé que la tavelure partage avec l’espèce asiatique sauvage, Malus sieversii, le même centre de diversité génétique situé dans les montagnes du Tian Shan, à la frontière du Kazakhstan et de la Chine. Dans ce site majestueux classé au patrimoine universel de l’Unesco pour la valeur de ses ressources génétiques, ce Malus, ancêtre du pommier domestiqué, continue de coévoluer avec son agent pathogène.
Les analyses historiques et génétiques menées sur le pommier montrent que sa domestication a commencé en Asie centrale, il y a 7 000 ans, à partir de Malus sieversii, pour se poursuivre jusqu’en Europe avec des hybridations successives entre différentes espèces de Malus; par exemple, Malus orientalis dans le Caucase et Malus sylvestris en Europe. Tout au long de ce processus de domestication, le champignon a dû gagner en virulence pour s’adapter aux gènes de résistance du pommier introduits par hybridations successives.
À partir du XVIe siècle, au moment de la découverte des nouveaux continents, l’Europe a servi de tête de pont à la diffusion ensemble du pommier domestiqué et de la tavelure, ce qui fait que la maladie provoque aujourd’hui des dégâts sur tous les continents.
Au cours des quarante dernières années, l’activité humaine a facilité, de manière totalement fortuite, l’introduction dans les vergers d’une population de tavelure provenant de l’habitat sauvage selon un scénario comparable à celui du « cheval de Troie ». L’histoire débute en 1914, aux États-Unis, avec des travaux de sélectionneurs qui cherchaient à introduire par hybridation dans le pommier le gène de résistance Rvi6, qui confère une résistance totale à la tavelure.
Issu de l’espèce ornementale Malus floribunda, le gène Rvi6 est rapidement devenu la principale source de résistance introduite dans les programmes de sélection à travers le monde. Après plusieurs décennies de croisements, les premières variétés portant le gène Rvi6 issues de ces travaux de sélection ont été plantées en Europe dans les années 1980. Cependant, quelques années après leur plantation, des symptômes de tavelure ont commencé à apparaître dans les vergers.
Une analyse génétique des souches virulentes du champignon a révélé que la résistance du gène Rvi6 était contournée par une population du champignon, présente de manière insoupçonnée en Europe, non pas dans les vergers, mais sur des pommiers sauvages. En plantant des variétés nouvelles porteuses du gène Rvi6, l’activité humaine a ainsi involontairement facilité l’installation de cette population virulente dans des vergers non protégés par des fongicides. Cette étude met en lumière, une fois de plus, le rôle crucial de l’habitat sauvage en tant que réservoir potentiel de virulence et de maladies susceptibles d’affecter les agrosystèmes.
Le plan EcoPhyto, qui ambitionne de diminuer de 50 % l’usage des pesticides, voire de les éliminer complètement, suscite des inquiétudes quant à sa faisabilité parmi les producteurs et représente un véritable défi pour les scientifiques.
En effet, les variétés de pommes les plus cultivées en France sont particulièrement sensibles à la tavelure, et non seulement la présence de tâches sur les fruits est inacceptable dans les circuits de distribution, mais toute possibilité d’exportation est également interdite.
À moins de convertir l’ensemble des vergers de pommiers en agriculture biologique et d’assouplir sensiblement la réglementation stricte sur la présence de taches sur fruits, imaginer se passer des fongicides de synthèse paraît aujourd’hui illusoire. La situation est similaire à l’étranger dans les grands pays producteurs et exportateurs de pommes, où les mêmes variétés sensibles à la tavelure dominent le marché.
Face à ce constat, comment changer la donne ? Faudrait-il envisager de réglementer voire d’interdire la plantation de variétés très sensibles à la tavelure ? Dans un contexte de sortie des pesticides, cette mesure radicale pourrait s’avérer nécessaire sous réserve que les producteurs soient accompagnés financièrement dans cette période de transition.
En l’absence de contraintes imposées par les politiques publiques, telles que des amendes sur l’application excessive de fongicides, les mêmes variétés gourmandes en traitements chimiques continueront de dominer le marché. Il serait également possible d’envisager la création d’un « pesti-score », une telle information portant sur la quantité de traitements appliqués sur les vergers pourrait participer au changement de paradigme attendu.
Sur le plan international, la recherche académique et les filières horticoles consacrent également beaucoup d’efforts pour lutter contre cette maladie. Toutefois, le long délai incompressible nécessaire pour amener de nouvelles variétés sur le marché reste un défi majeur en cultures pérennes. Substituer les variétés les plus sensibles par de nouvelles variétés porteuses de gènes de résistance provenant de pommiers sauvages reste réaliste, mais prendra du temps.
À court terme, une solution envisageable pour assurer cette transition pourrait résider dans la relance de campagnes de promotion et de sensibilisation auprès du grand public en faveur de variétés de pommes peu sensibles à la tavelure telles que la reine des reinettes ou la Chanteclerc, mais qui n’avaient pas rencontré à leur sortie le succès escompté face aux variétés dominantes. Une telle stratégie permettrait de diversifier les plantations en verger et de réduire ainsi l’usage des fongicides.
L’histoire récente nous enseigne toutefois l’humilité face à la complexité du problème : la tavelure présente une telle diversité qu’elle est capable de s’adapter aux résistances naturelles du pommier. Dès lors, l’enjeu va consister à protéger ces variétés en mettant en œuvre au verger une combinaison de stratégies visant à réduire la taille des populations de tavelure et ainsi prolonger l’efficacité des résistances, par différents moyens depuis l’utilisation de stimulateurs de défense des plantes à une diversification optimale des variétés dans le verger, en s’appuyant sur la modélisation mathématique.
Parmi les pistes alternatives aux pesticides étudiées dans notre laboratoire, nous évaluons la possibilité de perturber la reproduction sexuée du champignon, une étape indispensable à sa survie hivernale. L’objectif visé n’est pas de tuer le champignon, mais bien de l’empêcher de survivre durant l’hiver. Si nous réussissons à inhiber sa reproduction sexuée indispensable à sa survie hivernale, alors nous aurons franchi une étape importante vers la réduction de la dépendance aux fongicides.
Le changement de paradigme de substitution des variétés particulièrement sensibles aux différents bioagresseurs du pommier nécessitera un renforcement conséquent des investissements publics et privés pour mettre en place un plan ambitieux de développement de variétés résistantes aux maladies et aux ravageurs, impliquant tous les acteurs de la filière (arboriculteurs, techniciens de terrain, metteurs en marché, consommateurs, scientifiques).
Cet investissement lourd, mais indispensable pour atteindre les objectifs fixés, devra dépasser la lutte contre la tavelure en intégrant la résistance à bien d’autres maladies et ravageurs du pommier. Le défi sera de développer des variétés résilientes moins gourmandes en pesticides adaptées à des systèmes durables de gestion des résistances. Une telle transition demandera une refonte profonde des méthodes de production ainsi qu’un changement des habitudes des consommateurs.
Baudin Maël a reçu des financements de l'ANR, l'INRAE et Horizon-europe.
LE CAM a reçu des financements de ANR, de INRAE et de la Région Pays de La Loire
20.03.2025 à 16:52
Bernard Fortz, Professeur en méthodes d'optimisation pour la gestion, Université de Liège
Dans un monde où l’efficacité et la sécurité des infrastructures critiques sont essentielles, les algorithmes mathématiques apportent des solutions innovantes pour répondre à des défis complexes. En particulier, trois domaines clés où ils se révèlent indispensables : la réduction de la fraude par évasion tarifaire dans les transports en commun, l’optimisation de l’autoconsommation dans les communautés énergétiques et la protection des réseaux informatiques contre les attaques ciblées malveillantes.
L’évasion tarifaire dans les transports en commun, notamment dans les systèmes sans barrières physiques où les contrôles sont aléatoires, constitue un problème économique majeur pour les opérateurs. Les pertes engendrées par les passagers frauduleux peuvent être considérables, rendant nécessaire l’optimisation des stratégies de contrôle.
Une étude récente propose d’utiliser le jeu de Stackelberg pour modéliser l’interaction entre les opérateurs de transport, qui planifient les contrôles, et les passagers opportunistes qui cherchent à les éviter. Cette approche permet d’élaborer des stratégies d’inspection plus efficaces en planifiant les patrouilles de manière imprévisible, ce qui complique la tâche des fraudeurs.
Selon cette étude, la méthode améliore la gestion des contrôles en intégrant les comportements des passagers dans la planification. Le modèle utilise des stratégies mixtes pour établir des probabilités d’inspection, et des heuristiques ont été développées pour améliorer la qualité des solutions, même si l’optimalité n’est pas toujours garantie. Cette méthodologie peut être appliquée à différents systèmes de transport (métro, bus, tram, train…), permettant une réduction significative de l’évasion tarifaire.
Les communautés d’énergie, où les membres partagent l’énergie qu’ils produisent, stockent et consomment, représentent une voie prometteuse vers une transition énergétique plus durable. Ces communautés restent connectées au réseau public, mais visent à maximiser leur taux d’autoconsommation collective, réduisant ainsi leur dépendance à l’égard du réseau et leurs coûts énergétiques.
Un projet pilote, baptisé Smart Lou Quila a été développé par la start-up de Montpellier Beoga. Il permet aux sept membres de la communauté de se partager une électricité 100 % renouvelable et locale, produite par des panneaux photovoltaïques posés sur les toits des maisons et sur celui du stade municipal.
En collaboration avec ce projet pilote, un modèle de programmation linéaire en nombres entiers mixtes a été développé pour optimiser l’autoconsommation d’une communauté d’énergie. Un modèle linéaire en nombres entiers est une méthode d’optimisation mathématique où l’objectif est de maximiser ou minimiser une fonction linéaire, soumise à des contraintes également linéaires. Ce qui distingue ce modèle est que certaines ou toutes les variables de décision doivent prendre des valeurs entières (et non continues). Il est largement utilisé pour résoudre des problèmes impliquant des choix discrets, comme la planification, l’affectation ou les horaires, mais il est souvent plus complexe à résoudre qu’un modèle linéaire classique à cause de la contrainte d’intégralité.
Le modèle que nous avons développé gère l’utilisation des appareils électriques, le stockage d’énergie, ainsi que les échanges entre les membres de la communauté. Grâce à ce modèle, il a été démontré qu’une adhésion à une communauté énergétique peut réduire la consommation d’énergie provenant du réseau public d’au moins 15 %, avec des économies substantielles sur les factures. L’utilisation des outils de la recherche opérationnelle pour une meilleure gestion des communautés d’énergie était également l’objet de recherche du projet européen SEC-OREA (Supporting Energy Communities–Operational Research and Energy Analytics) auquel j’ai participé.
Les réseaux de services, qu’ils soient de communication, de logistique ou d’infrastructures critiques, sont particulièrement vulnérables aux cyberattaques. Ces attaques cherchent à désactiver des nœuds spécifiques du réseau, provoquant des dysfonctionnements graves et perturbant le service.
Pour contrer ces menaces, une nouvelle approche fondée sur la théorie des jeux a été développée. La théorie des jeux est une branche des mathématiques qui étudie les interactions stratégiques entre des acteurs rationnels, appelés « joueurs ». Elle modélise les situations où les décisions de chaque joueur influencent les résultats des autres, qu’il s’agisse de coopération ou de compétition.
Notre approche modélise l’interaction entre un opérateur de réseau, qui tente de protéger ses infrastructures, et un attaquant cherchant à maximiser les dommages.
Les chercheurs présentent des formulations mathématiques pour optimiser la protection des nœuds critiques du réseau. Les nouvelles formulations mathématiques proposées surpassent les méthodes existantes, offrant une meilleure anticipation des attaques et une réduction des dégâts potentiels. Ces modèles sont applicables non seulement aux réseaux de communication, mais aussi à d’autres secteurs critiques tels que les infrastructures publiques et les systèmes médicaux.
Les défis auxquels sont confrontés les opérateurs de transport, les communautés énergétiques et les gestionnaires de réseaux sont variés, mais les algorithmes mathématiques offrent des solutions efficaces et adaptables. Qu’il s’agisse de maximiser les revenus des transports en commun, d’optimiser l’autoconsommation énergétique ou de protéger des réseaux contre des cyberattaques, les avancées en matière de modélisation et d’optimisation mathématique jouent un rôle central dans la sécurisation et l’optimisation de nos infrastructures critiques, en renforçant la résilience et la durabilité de nos systèmes face aux défis actuels et futurs.
Cet article a été écrit en collaboration avec le Dr Arnaud Stiepen, expert en vulgarisation scientifique.
Bernard Fortz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.03.2025 à 13:43
Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université
L’édition 2025 du baromètre de l’esprit critique révèle des différences notables dans le rapport aux sciences selon les générations et les disciplines. Les jeunes font, par exemple, davantage confiance aux sciences que leurs aînés, mais leur tendance à privilégier les informations provenant de leur entourage et des réseaux sociaux les expose davantage à la désinformation, notamment en ce qui concerne les bonnes pratiques nutritionnelles.
Décryptage par Michel Dubois, sociologue et membre du comité scientifique du baromètre de l’esprit critique.
Comment évolue le rapport des Français aux sciences ? Se dirige-t-on vers une défiance comme aux États-Unis ?
Michel Dubois : En France, comme aux États-Unis, la défiance à l’égard des sciences reste un phénomène heureusement minoritaire. Ce que l’on observe aux États-Unis, depuis le retour de Donald Trump à la Maison Blanche, ce n’est pas tant un rejet de la science par l’opinion publique, qu’une volonté politique de faire des universités et des organismes de recherche des adversaires idéologiques. Il s’agit de couper les budgets, de licencier le personnel des agences fédérales, d’interdire la recherche sur un certain nombre de sujets jugés inutiles ou « déconseillés », mais plus fondamentalement de contester la légitimité des scientifiques à définir ce qui est un fait et ce qui ne l’est pas. Ce degré de politisation de la science est inédit dans l’histoire contemporaine des États-Unis et ses conséquences sont déjà perceptibles à travers la gestion chaotique de l’épidémie de rougeole au Texas.
En France, la situation est encore heureusement différente. L’édition 2025 du Baromètre de l’esprit critique confirme certaines des tendances positives mises en évidence lors de la dernière vague de l’enquête Les Français et la science. Par exemple, entre 7 et 8 enquêtés sur 10 considèrent que la science permet de comprendre qui nous sommes, et le monde dans lequel nous vivons. Ils sont autant à considérer qu’une affirmation a plus de valeur si elle a été validée scientifiquement ou que la science permet de développer de nouvelles technologies utiles à tous.
Quelles différences existe-t-il entre les générations concernant la confiance envers les institutions scientifiques ?
M. D. : L’édition 2025 du baromètre introduit un échantillon 15-24 ans qui peut être comparé à l’échantillon standard des 18-65 ans et plus. C’est l’occasion de souligner quelques résultats inattendus ou contre-intuitifs. Les études inutilement alarmistes ne manquent pas pour prétendre que les plus jeunes affichent une posture toujours plus critique à l’égard des sciences.
Or, nos résultats montrent le contraire : comparés aux 18 ans et plus, les 15-24 ans manifestent un plus grand intérêt pour les sciences. Les 15-24 ans manifestent également une plus grande confiance dans la communauté scientifique : ils sont plus nombreux que leurs aînés à considérer que la communauté scientifique est indépendante pour valider ses résultats (+13 points), ou que les scientifiques suivent des règles éthiques strictes (+9 points). Ce sont également les jeunes qui sont les plus impliqués dans des activités à caractère scientifique : la visite d’expositions scientifiques, la collaboration à des expériences de science participative ou la rencontre avec des chercheurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Constate-t-on des différences dans le rapport aux sciences humaines et aux sciences dites dures ?
M. D. : D’une façon générale, même si cela peut surprendre, l’esprit critique est davantage associé par nos répondants aux humanités qu’aux sciences exactes. Trois quarts d’entre eux considèrent faire preuve d’esprit critique et quand on leur demande de nommer les disciplines qui ont contribué à forger cet esprit durant leur scolarité, ils citent prioritairement le français, l’histoire-géographie, la philosophie et seulement ensuite arrivent les sciences de la vie et de la terre, les mathématiques, la physique ou la chimie. Ce résultat peut donner l’impression que les sciences exactes sont perçues comme des disciplines relativement dépourvues de questionnement réflexif. Cela doit sans doute nous inciter à revoir la manière dont on enseigne les sciences au collège et au lycée, afin de mieux mettre en valeur leur dimension critique.
Interrogés sur la façon dont ils perçoivent la scientificité des disciplines, nos deux échantillons se retrouvent pour voir dans la médecine, la biologie, la chimie et l’astrophysique, des sciences exemplaires. Tout comme ils convergent pour douter très majoritairement du caractère scientifique des horoscopes, de la naturopathie ou de l’homéopathie. Mais, entre ces extrêmes, les 15-24 ans se démarquent de leurs aînés par une attitude plus positive à l’égard de l’économie (+3 points), de l’histoire (+4 points), de l’écologie (+5 points), de la psychanalyse (5 points) et plus encore de la sociologie (+12 points).
Qu’est-ce qui fait que, dans la population générale, on accorde plus de valeur ou d’intérêt à certaines sciences ?
M. D. : En France comme ailleurs, l’attention accordée à une discipline dépend souvent des répercussions, positives et négatives, qu’on lui prête sur notre environnement ou sur nos conditions de vie. C’est relativement évident pour la médecine, la biologie ou plus généralement pour la recherche sur le vivant. Toutefois, cet intérêt ne signifie pas que les scientifiques bénéficient d’une légitimité de principe leur permettant de mener leurs travaux sans tenir compte des contraintes sociales et culturelles qui les entourent. Comme l’ont montré les enquêtes Les Français et la science, une écrasante majorité de Français estime nécessaire d’instaurer des règles encadrant le développement des sciences du vivant.
Y a-t-il un avant et un après-Covid en matière de confiance envers les sciences ?
M. D. : Si l’on s’en tient à une mesure générale de la confiance, les résultats que nous obtenons aujourd’hui ne sont pas très différents de ceux dont on disposait avant la période Covid. Toutefois, cette crise a mis en lumière de nouveaux enjeux pour le grand public : d’une part l’importance de l’indépendance de la recherche scientifique et, de l’autre, la nécessaire vigilance concernant les manquements à l’intégrité scientifique. On se souvient notamment des soupçons qui ont pesé pendant la crise Covid sur certains experts en raison de leurs liens d’intérêts avec de grands groupes pharmaceutiques ; ces liens étant souvent interprétés comme étant autant de conflits d’intérêts. Dans notre échantillon 18-65 ans et plus, il n’y a qu’un répondant sur deux à considérer que la communauté scientifique est indépendante pour valider ses résultats.
Par ailleurs, le nombre croissant de rétractations d’articles de l’équipe de l’Institut Méditerranée infection à Marseille – plus de 40 aujourd’hui – illustre les préoccupations liées à la fiabilité des publications scientifiques pendant la crise Covid. Et ils ne sont aujourd’hui que 6 répondants sur 10 à considérer que les scientifiques suivent des règles éthiques strictes. Plus qu’une remise en cause de la science, cette double tendance souligne une attente croissante de transparence et de régulation dans la production du savoir qui n’est pas très différente de celle que l’on peut mesurer, par ailleurs, dans la communauté scientifique.
L’édition 2025 du baromètre contient une section consacrée à nos croyances en matière d’alimentation. Quels en sont les enseignements généraux ?
M. D. : Cette année, le baromètre de l’esprit critique a voulu en savoir plus sur les pratiques et les croyances alimentaires. Est-il vrai par exemple qu’après un excès alimentaire, une cure détox est efficace pour nettoyer l’organisme ? Est-il vrai que les compléments alimentaires permettent de corriger une mauvaise alimentation ? Ou encore : est-il vrai que les hommes ont besoin de plus de viande rouge que les femmes ? Toutes ces propositions sont fausses, mais qu’en est-il de leur diffusion dans l’espace public ? Les résultats suggèrent que les opinions erronées au sujet de l’alimentation sont relativement courantes : 8 répondants sur 10 adhèrent à au moins une proposition fausse en matière d’alimentation.
La maîtrise des savoirs varie selon plusieurs facteurs, notamment le genre, avec une meilleure connaissance observée chez les femmes par rapport aux hommes, mais plus encore en fonction de l’âge. En matière d’alimentation, plus on est âgé et plus on a de chances de faire la différence entre une proposition vraie et une proposition fausse. Les 15-24 ans semblent manquer de repères.
Ce n’est sans doute pas sans rapport avec la façon dont ils s’informent en général. Ils se distinguent de leurs aînés par l’importance qu’ils accordent à leur entourage et aux réseaux sociaux. Et pour les informations liées à l’alimentation, ils sont près de 7 sur 10 à faire confiance aux professionnels de la médecine douce et alternative, 1 sur 2 aux influenceurs sportifs ou aux youtubeurs. Des constats ciblés qui devraient faire réfléchir celles et ceux qui travaillent sur la communication des messages de santé publique.
Entretien réalisé par Aurélie Louchart.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Michel Dubois a reçu des financements de l'Agence Nationale de la Recherche et du programme cadre Horizon Europe de l'Union Européenne
20.03.2025 à 00:00
Pauline Zarrouk, Chercheuse CNRS en cosmologie au Laboratoire de Physique Nucléaire et des Hautes Energies (LPNHE), Sorbonne Université
DESI est une grande campagne d’observation astronomique. Son but ? Mesurer avec précision la position des galaxies dans l’espace, afin de traquer la mystérieuse « énergie noire » qui dominerait la manière dont l’Univers est en expansion aujourd’hui.
Pour cela, plus de 900 scientifiques de plus de 70 institutions dans le monde entier se sont alliés. Aujourd’hui, nous dévoilons nos nouveaux résultats sur l’histoire de l’expansion de l’Univers.
C’est en Arizona (États-Unis), au milieu du désert, que se trouve notre télescope Mayall de DESI, situé à l’observatoire de Kitt Peak. Avec son miroir principal de quatre mètres de diamètre, il observe le ciel depuis mai 2021. En trois ans, il a mesuré 15 millions de galaxies, collectant à la fois leur position dans le ciel et leur distance, grâce à ses 5 000 petits yeux robotisés.
À partir de la position des galaxies et de leur distance, nous publions aujourd’hui la cartographie tridimensionnelle des grandes structures de l’Univers la plus précise à ce jour.
Avec cette carte, nous voulons répondre à un mystère qui rend perplexes les astrophysiciens depuis sa découverte, il y a vingt-cinq ans : non seulement l’Univers est en expansion (cela, nous le comprenons), mais cette expansion s’accélère. Pour décrire cette accélération, notre modèle actuel de l’Univers suppose l’existence d’une énergie noire dont la forme la plus simple est une « constante » cosmologique. Les tout nouveaux résultats de DESI, combinés avec d’autres données, suggèrent que cette énergie noire varie avec le temps : elle ne serait donc pas constante.
Si ces observations ne résolvent pas à elles seules le mystère de l’énergie noire, elles donnent des pistes concrètes et quantitatives sur lesquelles appuyer les explorations futures.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les galaxies ne sont pas réparties de manière aléatoire dans le ciel, comme on le voit sur la vidéo. Il y a des régions avec beaucoup de galaxies regroupées en amas ou en filaments, et d’autres régions sont beaucoup moins denses, qui forment des vides cosmiques. Cette structuration de la matière dépend de la gravité, qui attire les corps massifs entre eux, ainsi que du contenu de l’Univers en matière ordinaire, en matière noire et en énergie noire.
La technique d’analyse utilisée pour obtenir ces nouveaux résultats avec trois ans de données avait déjà été testée, raffinée et appliquée aux données collectées pendant un an par DESI. Elle s’appelle BAO, un acronyme plus sympathique que son nom complet (les « oscillations acoustiques des baryons » ou baryon acoustic oscillations).
Elle est fondée sur l’existence d’une distance caractéristique entre deux galaxies qui change uniquement à cause de l’expansion de l’espace-temps lui-même. En mesurant cette distance caractéristique à différents moments de l’histoire de l’Univers, nous retraçons son expansion au cours de temps et nous pouvons ainsi étudier la façon dont cette expansion s’accélère.
À ce jour, aucune théorie ne permet d’expliquer de manière satisfaisante le mécanisme à l’origine de l’accélération récente de l’expansion de l’Univers (il y a environ cinq ou six milliards d’années), d’où le nombre croissant de projets qui y sont consacrés.
Pour expliquer ce phénomène, le modèle actuel de la cosmologie suppose l’existence d’une composante exotique, appelée énergie noire, dont on cherche à déterminer les propriétés, en particulier si celles-ci évoluent avec le temps ou sont constantes.
Jusqu’à présent, c’est l’hypothèse la plus simple pour décrire l’énergie noire qui a été adoptée : il s’agit de la constante cosmologique, dont la valeur est déterminée par les observations, mais que l’on ne sait pas relier à un mécanisme physique.
Les nouveaux résultats de DESI avec trois ans de données sont en parfait accord avec ceux obtenus en avril dernier avec un an de données, et ils apportent les meilleures contraintes à ce jour sur les paramètres de notre modèle cosmologique actuel.
Toutefois, à mesure que la précision de nos données s’améliore, des craquelures dans le modèle commencent à surgir dès lors qu’on essaye d’expliquer, avec le même modèle, différentes observations de notre Univers.
De plus, les nouveaux résultats de DESI combinés à l’analyse des premiers photons émis dans l’Univers (fond diffus cosmologique) et des explosions d’étoiles (supernovae de type Ia) confirment la préférence pour un modèle où l’énergie noire varie au cours du temps — c’est ce que l’analyse avec un an de données avait déjà montré en avril et en novembre derniers. Cette préférence pour un modèle d’énergie noire dynamique par rapport à une constante cosmologique n’a pas encore atteint le seuil d’une découverte, mais s’est renforcée avec plus de données collectées par DESI.
Nous assistons peut-être à la fin de la constante cosmologique et à l’aube d’une avancée majeure sur la nature de l’énergie noire, plus de vingt-cinq ans après la découverte de l’accélération de l’expansion de l’Univers.
D’autres programmes d’observations du ciel visent également à sonder la nature de l’énergie noire et à tester la théorie de la gravité en utilisant la cartographie tridimensionnelle des galaxies comme DESI, mais aussi d’autres sondes cosmologiques.
Parmi ces autres sondes de l’Univers récent, deux sont particulièrement intéressantes et complémentaires de DESI : les supernovae de type Ia et le lentillage gravitationnel, qui provient des déformations de la forme des galaxies du fait de la présence de matière le long de la trajectoire des rayons lumineux.
Côté supernovae, l’analyse cosmologique des supernovae de type Ia du programme Zwicky Transient Facility (ZTF) en combinaison avec les données de DESI devrait apporter un éclairage prometteur.
Côté lentillage gravitationnel, le satellite européen Euclid, lancé en juillet 2023, et le programme décennal d’observation du ciel de l’observatoire Vera-Rubin (en construction au Chili, ndlr) — dont la première lumière est prévue pour l’été 2025 — apporteront de nouvelles données et de nouveaux résultats, qu’il sera très intéressant de comparer et de combiner avec l’échantillon final de DESI, d’ici fin 2026.
Pauline Zarrouk a reçu des financements du CNRS Particules et Noyaux.
19.03.2025 à 12:32
Laetitia Grabot, Chercheur postdoctoral en neurosciences cognitives, École normale supérieure (ENS) – PSL
La série de science-fiction Severance dépeint un monde dystopique où une opération chirurgicale permet de séparer ses souvenirs au travail de ses souvenirs liés à sa vie privée. La saison 2, qui cartonne et dont l’épisode final sera diffusé le 21 mars 2025, met en avant une procédure qui permettrait de réintégrer ces deux pans de la personnalité. Qu’en disent les neurosciences ?
Cet article contient des spoilers des épisodes 1 à 6 de la saison 2.
Dans la série Severance, les employés de Lumon Industries sont dissociés entre leur « moi du boulot » et le « moi de la maison ». Le premier est ainsi entièrement dévolu à ses tâches professionnelles, sans interférences dues aux aléas de la vie quotidienne, et le second libre de vaquer à sa vie privée sans charge mentale due au travail. Cependant, malgré la promesse d’un équilibre travail/vie privée strictement parfait, les protagonistes ne vivent pas si bien leur dissociation. Le personnage principal, Mark Scout, tente une procédure de réintégration de ses deux « moi ». C’est Reghabi, une ancienne employée rebelle de Lumon qui s’en charge.
Dans l’épisode 3 de la saison 2, elle enregistre l’activité du cerveau de Mark après avoir posé des électrodes sur sa tête, comme on le fait de nos jours avec l’électroencéphalographie. Deux tracés en forme de vagues sont visibles, chacun d’eux représentant une partie des souvenirs de Mark. La procédure consiste à resynchroniser ces deux tracés, c’est-à-dire à les réaligner, pour réintégrer les deux « moi ».
Ce processus serait crédible à l’aune des connaissances actuelles en neurosciences. Connaître les recherches sur le sujet permet d’apprécier de nouvelles subtilités dans cette série, qui soulèvent déjà de nombreuses questions.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
L’activité cérébrale mesurée par électroencéphalographie, une technique qui consiste à poser des électrodes sur le cuir chevelu d’une personne, se présente effectivement sous forme de vagues d’activité. Les chercheurs étudient ce signal en le découpant en différentes oscillations, plus ou moins rapides, dont les noms correspondent à la liste de lettres grecques égrenées par Reghabi : delta, theta, alpha, beta, gamma.
Les oscillations delta sont par exemple très lentes, autour de 2 Hz, ce qui correspond à deux cycles par seconde, proche du rythme cardiaque après un effort, et souvent retrouvées pendant certaines phases du sommeil. Les oscillations gamma sont plus rapides, autour de 40 Hz (40 cycles par seconde), et sont impliquées dans de nombreuses fonctions cognitives comme la perception visuelle ou la mémoire.
Dans la série, la réintégration se produit lorsque Reighabi force les deux signaux correspondant aux deux « moi » de Mark à se resynchroniser. On pourrait ici faire un lien avec une question fondamentale en neurosciences cognitives : comment le cerveau combine-t-il les différentes informations qu’il reçoit (lumière, son, odeurs…) en une expérience consciente cohérente ?
Considérons une scène avec un ballon rouge et une chaise grise : chaque objet a plusieurs caractéristiques, comme sa couleur, sa forme ou le fait qu’il soit statique ou en mouvement. Chacun de ses aspects est traité par des parties différentes du cerveau. Comment ces informations dispersées sont-elles ensuite regroupées pour donner une perception unifiée de la scène ? Plus particulièrement, comment le cerveau sait-il qu’il faut associer la couleur rouge au ballon, et la couleur grise à la chaise ?
Le phénomène de synchronisation des oscillations a été proposé comme solution potentielle : deux populations de neurones, à deux endroits différents du cerveau, vont se synchroniser si elles traitent deux caractéristiques d’un même objet.
Cette théorie a été proposée suite à une étude de référence sur des chats, auxquels des électrodes ont été implantées dans le cerveau. Ces électrodes ont permis de mesurer la réponse de groupes de neurones dans le cortex visuel, lorsque des barres lumineuses étaient présentées devant les yeux des chats. On savait déjà qu’un neurone communiquait en envoyant des impulsions électriques à ses voisins. Les auteurs ont remarqué que les neurones déchargeaient ces impulsions de manière rythmique, suivant une oscillation, alternant entre périodes de repos et périodes d’activité. La découverte la plus remarquable, c’est l’observation que différents groupes de neurones, éloignés l’un de l’autre, se synchronisaient entre eux seulement s’ils étaient activés par la même barre lumineuse.
Plus généralement, les neuroscientifiques ont proposé l’idée que la synchronisation de deux groupes de neurones éloignés leur permettait d’aligner leurs périodes d’activité et donc de pouvoir échanger des informations. La synchronisation de l'activité cérébrale serait donc un mécanisme important du traitement de l’information dans le cerveau car elle permettrait aux différents groupes de neurones du cerveau de communiquer entre eux. Dans Severance, on retrouve cette idée : réintégrer les deux « moi » se fait en resynchronisant l’activité cérébrale de chacun des « moi », ce qui permet de rétablir une communication entre les deux pans de la personnalité de Mark.
Là où la fiction se permet quelques libertés artistiques par rapport à la science, c’est lorsqu’un objet aussi complexe qu’un « moi » défini par ses souvenirs, désirs, et émotions est capturé et réduit à une oscillation. En réalité, chaque aspect du fonctionnement du cerveau (perception, attention, mémoire…) est associé à différents types d’oscillations cérébrales. Par exemple, les oscillations theta (entre 4 et 8 Hz), alpha (entre 8 et 12 Hz) et gamma (> 35 Hz) sont impliquées dans les processus attentionnels. La mémoire mobilise aussi les oscillations theta et gamma. Le simple fait de regarder une image sollicite plusieurs mécanismes impactant différentes régions du cerveau et reste encore partiellement incompris à ce jour. Ainsi, aucune de ces capacités ne peut être expliquée par une seule oscillation. Il n’est donc pas possible de résumer une personnalité complète à un endroit précis du cerveau ni de stocker deux personnalités différentes n’ayant rien en commun dans deux parties bien délimitées du cerveau.
Faisons donc l’hypothèse que chaque tracé sur l’oscilloscope représente la moyenne de multiples électrodes mesurant l’activité globale du cerveau de Mark, plutôt que de provenir d’une unique électrode. C’est toute l’activité de son cerveau qui se déphase donc lorsqu’il passe de son « moi du boulot » à son « moi privé », le déphasage étant probablement activé par la puce insérée dans son cerveau. Dans le cas de Mark, on ne veut pas seulement intégrer l’information de deux régions différentes du cerveau, mais on veut réintégrer deux cerveaux complets déphasés dans le temps ! On comprend pourquoi la procédure est douloureuse et occasionne des effets secondaires…
Une dernière question se pose : peut-on resynchroniser deux ondes cérébrales ? Dans la série, Reighabi utilise un dispositif de stimulation magnétique transcrânienne (ou TMS), une technique utilisée à la fois pour la recherche et le traitement de troubles neurologiques ou psychiatriques. Le principe est d’envoyer un champ magnétique localisé qui stimule l’activité des neurones. Dans l’épisode 3 de la saison 2, on voit Mark bouger ses doigts suite à l’usage de la TMS. C’est exactement ce qui arrive lorsqu’on stimule avec la TMS le cortex moteur, une région du cerveau qui dirige l’exécution de mouvements. Il est aussi possible d’induire des oscillations avec la TMS, en envoyant des impulsions rythmiques de champ magnétique. On l’utilise donc dans la recherche pour moduler des oscillations dans le cerveau et observer si ces perturbations de l’activité cérébrale ont un impact sur la perception ou d’autres fonctions cognitives.
Quant à l’utiliser pour resynchroniser deux cerveaux déphasés en une personnalité unifiée, cela supposerait d’appliquer la TMS sur le cerveau entier (alors que l’intérêt de cette technique est de pouvoir cibler une zone donnée, par exemple le cortex moteur, ou le cortex visuel). Or une synchronisation trop forte de nombreuses populations de neurones voir du cerveau entier, conduit à… une crise d’épilepsie. Ce que vit d’ailleurs probablement Mark dans l’épisode 6, bien qu’elle ait aussi pu être déclenchée par un problème dans la tentative de Reighabi d’inonder la puce à l’intérieur de son cerveau pour la rendre inefficace.
La synchronisation des oscillations apparaît donc comme un processus délicat, un ballet subtil où chaque partie du cerveau doit s’accorder avec les autres pour permettre le fonctionnement normal d’un cerveau. Décrypter les mystères des oscillations cérébrales demeure un défi captivant pour la recherche, car elles n’ont pas encore livré tous leurs secrets. Leur potentiel intrigant en fait également une source d’inspiration riche pour la science-fiction, comme l’a montré avec brio la série Severance.
Laetitia Grabot est membre du comité des Jeunes Chercheurs de TRF (Timing Research Forum) une société académique ouverte visant à promouvoir la recherche sur la perception du temps. Elle a reçu des financements de la FRC (Fédération pour la Recherche sur le Cerveau).
19.03.2025 à 12:32
Astrid Thébault Guiochon, Ingénieure et Enseignante, Université Lumière Lyon 2
Après une journée fatigante, vous êtes enfin confortablement installé dans votre lit, prêt à tomber dans les bras de Morphée… quand soudain, votre corps sursaute, comme si vous tombiez dans le vide. Mais pourquoi notre cerveau nous joue-t-il ce tour juste avant de sombrer dans le sommeil ? Et d’ailleurs, que se passe-t-il réellement dans notre cerveau lorsqu’on s’endort ?
Ce « sursaut du sommeil » porte le nom de « secousse hypnique » (du grec upnos, qui signifie sommeil) ou myoclonie (toujours des termes grecs myo pour muscle, et clonie pour agitation) d’endormissement, en référence à la contraction musculaire brève qui en est à l’origine.
Il s’agit d’une contraction musculaire brève et involontaire qui survient au moment de l’endormissement. Elle peut toucher l’ensemble du corps ou se limiter à un groupe musculaire, comme les bras ou les jambes. Bien souvent, elles sont assez intenses pour nous tirer du sommeil, mais il arrive qu’elles soient assez légères pour ne pas s’en rendre compte.
D’une certaine manière, ces secousses ressemblent au hoquet, qui est lui aussi une myoclonie sauf qu’ici, c’est une partie bien plus grande du corps qui est impliquée.
Environ 70 % de la population en a déjà fait l’expérience au moins une fois dans sa vie, et cette secousse touche autant les femmes que les hommes.
Plusieurs théories ont été formulées quant à son origine, mais les scientifiques ne se sont, à ce jour, pas accordés sur une cause certaine.
L’une des théories répandues propose une explication assez simple : lorsqu’on s’endort, on passe par différentes phases de sommeil, jusqu’à atteindre le sommeil paradoxal (qui permet notamment de consolider les souvenirs, et de faire les rêves dont on se souvient au réveil). Ce serait ce passage entre sommeil léger et profond qui engendrerait une relaxation des muscles (l’atonie musculaire), parfois trop soudaine pour le corps. Ce relâchement musculaire soudain pourrait surprendre le cerveau, qui, en réaction à cette perte de tonus, déclencherait une contraction réflexe des muscles.
Un certain nombre de scientifiques parlent également d’un déséquilibre dans l’endormissement du cerveau. Le passage d’un état d’éveil à un état de sommeil est géré au sein du tronc cérébral qui intervient dans un grand nombre de fonctions vitales. Parfois, la transition entre l’éveil et le sommeil est assez instable pour que ce système envoie accidentellement des signaux vers les muscles, qui vont alors se contracter.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Une autre hypothèse repose sur une erreur d’interprétation du cerveau. Lorsqu’on s’endort, nos muscles se relâchent progressivement, notre respiration ralentit et notre rythme cardiaque diminue. Or, le cerveau pourrait interpréter cette détente musculaire soudaine comme une chute, déclenchant un réflexe primitif de sursaut pour éviter un danger potentiel. Cette théorie trouve ses racines dans notre passé évolutif : nos ancêtres dormaient parfois en hauteur (sur des branches, des rochers…) et un relâchement incontrôlé du corps pouvait être synonyme de chute dangereuse. Ce réflexe serait donc un vestige de ce mécanisme de protection.
Cette vigilance résiduelle du cerveau ne se limite d’ailleurs pas aux secousses hypniques : elle se retrouve aussi dans l’effet de première nuit.
Il n’est pas rare, lorsqu’on dort dans un nouvel endroit pour la première fois, de mal dormir, ou moins bien dormir que d’habitude, et l’évolution semble aussi en être la cause. Lors de cette première nuit, une partie de notre cerveau, et plus précisément l’hémisphère gauche, reste plus éveillée que l’autre. L’objectif ? Surveiller l’environnement pour détecter d’éventuelles menaces pour se réveiller rapidement en cas de danger.
Un mécanisme de protection que l’on retrouve aussi chez certaines espèces animales, comme les oiseaux et les dauphins, qui dorment avec un hémisphère (et même un œil) éveillé pour rester en alerte.
L’évolution n’est bien sûr pas la seule fautive possible. Certains facteurs peuvent également favoriser ces sursauts nocturnes : le stress, la consommation excessive de caféine ou de nicotine, et même certains médicaments !
Si ces sursauts nocturnes peuvent être surprenants, voire agaçants, ils restent totalement bénins dans la grande majorité des cas. Ils rappellent simplement que la transition entre l’éveil et le sommeil est un mécanisme complexe, encore imprégné des traces de notre passé évolutif.
Astrid Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.03.2025 à 12:30
Alain Bourmaud, Science des matériaux, Université Bretagne Sud (UBS)
Camille Goudenhooft, Enseignante-Chercheuse en mécanique des matériaux et des assemblages, ENSTA Bretagne
Loren Morgillo, Post-Doc spécialisé dans l'analyse des textiles en fibres naturelles, Université Bretagne Sud (UBS)
Des chercheurs étudient les propriétés de fibres antiques issues de bandelettes de momie ou de voiles de bateau, pour mieux comprendre comment le lin peut si bien résister aux attaques du temps.
Les fibres de lin ont, depuis des millénaires, accompagné le développement de nos civilisations, en raison de leurs performances exceptionnelles, mais aussi de la finesse et du confort des textiles qu’elles permettent de confectionner.
Aujourd’hui, leur usage revient à la mode dans le textile, car le lin pousse en France métropolitaine et se développe dans le secteur des matériaux composites, pour ses propriétés mécaniques remarquables et parce qu’il permet de mettre au point des produits plus respectueux de l’environnement.
En étudiant des fibres de lin datant de plusieurs millénaires, nous cherchons à faire le lien entre passé et présent, afin de nous aider à concevoir des composites biobasés et durables. En effet, les matériaux archéologiques en lin, par exemple les bandelettes de momies égyptiennes, sont des témoins extraordinaires qui peuvent nous apprendre de nombreuses choses sur la durabilité de ces fibres — notamment comment peuvent évoluer leurs propriétés mécaniques ou biochimiques au cours du temps.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le lin, domestiqué par les humains depuis près de 10 000 ans, accompagne depuis toujours le développement des civilisations les plus avancées
C’est l’Égypte antique qui en a développé à la fois les pratiques culturales, mais aussi l’extraction de ses fibres et leur transformation, posant ainsi les bases de l’industrie textile que nous connaissons aujourd’hui. Les fibres de lin permettaient à l’époque la réalisation de fils et de textiles d’une grande finesse, très prisés et utilisés à la fois pour la réalisation de vêtements luxueux, mais aussi pour confectionner les plus prestigieux parements funéraires.
Dès cette époque est apparue la notion de recyclage, les textiles en lin étant la plupart du temps réutilisés, sous forme de bandelettes de momies ou encore en voiles de bateaux.
De plus, dans l’Égypte ancienne mais aussi plus tardivement, dans l’Europe du Moyen Âge ou de la Renaissance, les textiles en lin, compte tenu de leur valeur, étaient couramment utilisés comme monnaie d’échange et de négociation.
Enfin, les fibres de lin ont depuis l’Antiquité guidé les développements de la marine et en sont un des fils rouges. Utilisées par les Grecs ou Égyptiens anciens pour le calfatage des coques et la réalisation des voiles, leur culture soutenue en Bretagne aux XVIIe et XVIIIe siècles a fortement contribué au développement de la marine à voile en France par la réalisation de voiles, cordages ou encore vêtements de matelots.
Fortement concurrencées pour l’habillement, le linge de maison ou les usages techniques par le coton à partir du XVIIIe siècle, puis par les fibres synthétiques depuis le XXe siècle, le lin connaît aujourd’hui un renouveau, que ce soit encore une fois dans le nautisme pour la réalisation de coques ou ponts de bateaux ainsi que de voiles biobasées, mais aussi dans le secteur industriel des transports, par exemple, pour réaliser des pièces d’habillage intérieur et d’isolation pour les voitures.
En 2023, l’Égypte représente environ 1 % de la production mondiale de lin, la positionnant parmi les huit principaux pays producteurs à l’échelle mondiale.
Aujourd’hui, le premier producteur mondial de lin textile est la France, dont les surfaces cultivées s’élèvent à 186 000 hectares en 2024 — pour une production d’environ 200 000 tonnes de fibres. En effet, le climat de la côte nord-ouest de la France, caractérisé par une parfaite alternance de jours ensoleillés, une forte humidité et des températures douces, offre aujourd’hui des conditions idéales pour la culture du lin. Cette production reste très minoritaire par rapport aux fibres de coton (26 millions de tonnes dans le monde), mais significative par rapport aux fibres longues de chanvre qui ne concernent que quelques milliers d’hectares en France.
Les fibres de lin possèdent une structure et des propriétés mécaniques hors norme qui sont liées à leur fonction dans la plante et à la structure de cette dernière.
La plante de lin est en effet dotée d’une élongation exceptionnelle : sa croissance est rapide, atteignant une hauteur d’environ un mètre pour un diamètre de tige de quelques millimètres seulement.
Pour tenir debout, elle a développé des fibres d’un diamètre d’environ 15 microns et ayant une longueur de quelques centimètres (celles de bois ne font que quelques millimètres) et regroupées en faisceaux très cohésifs de quelques dizaines d’unités. Ces faisceaux de fibres, répartis en périphérie de la tige, en assurent la stabilité, même en cas de vent ou de pluies soutenues. La nature a ainsi mis au point un modèle mécanique très performant qui peut être une source de bio-inspiration pour la conception des matériaux.
Depuis le début du XXe siècle, les variétés de lin actuelles ont fait l’objet de longues années de sélection variétale afin de produire les plantes les plus riches en fibres et les plus résistantes aux maladies. Les agriculteurs français ont ainsi développé des savoir-faire cruciaux, permettant la récolte de fibres aux qualités optimales — en particulier l’accumulation de chaleur nécessaire à la croissance de la plante, en fonction de la température journalière ; et le rouissage au champ, qui consiste à laisser les tiges de lin reposer dans le champ pendant 3 à 6 semaines, pendant lesquelles des micro-organismes décomposent les tissus entourant les fibres, les préparant ainsi aux étapes de transformation subséquentes.
Cependant, cette culture est confrontée aujourd’hui à de nombreux aléas climatiques. Pour les contrecarrer, la profession travaille à la mise au point de nouvelles variétés plus résistantes à la sécheresse, à la sélection de zones de culture moins arides, et aussi au développement de cultures hivernales.
À lire aussi : Faire pousser des isolants thermiques: un panorama des matériaux disponibles en France
Si les fibres de lin sont de plus en plus utilisées, dans les textiles ou même les matériaux techniques en raison de leurs performances mécaniques, des verrous scientifiques subsistent pour accélérer le développement de leur usage dans le secteur des matériaux ; par exemple, mieux comprendre leur comportement mécanique et structural sur le long terme, notamment en milieu extérieur, est un point clef.
L’étude de leurs défauts structuraux, qui sont des sites de faiblesses mécaniques mais aussi des portes d’entrée pour l’eau et les micro-organismes tels que les bactéries, micro-organismes et champignons, est aujourd’hui un enjeu scientifique important.
Le projet Anubis se veut être un pont entre archéologie, archéométrie (l’analyse quantitative de vestiges archéologiques) et science des matériaux.
Notre approche est d’étudier des objets archéologiques très anciens, parfois âgés de plusieurs millénaires, pour comprendre l’évolution de leurs propriétés et de leur structure au fil du temps. Nos travaux portent principalement sur des fibres de lin égyptiennes issues de textiles mortuaires, de filets de pêche ou encore de vêtements de figurine, sélectionnés par les archéomètres de l’Institut français d’archéologie orientale du Caire.
Nous travaillons ainsi sur des petits fragments de textiles anciens (de quelques millimètres), prélevés en bordure des œuvres, en utilisant des techniques de caractérisation le moins destructives possible. Elles nous apportent des enseignements sur leurs propriétés, qui peuvent aussi renseigner les archéologues sur de possibles usages anciens. Le nombre de défauts peut, par exemple, être un indicateur de l’usure de la pièce textile.
Pour déterminer les performances mécaniques de ces fibres de lin anciennes, leur constitution biochimique ou bien leur structure, nous utilisons des techniques de pointe. C’est, par exemple, la microtomographie sous rayonnement synchrotron, qui utilise les rayons X pour obtenir des images en coupe d’une extrême précision d’un objet ou d’un matériau, comme les fibres dans notre cas. Elle permet non seulement d’obtenir une vue en 3D de la structure externe, mais aussi d’analyser en détail la structure interne.
Ces expériences nous permettent par exemple de visualiser les porosités au sein de leurs défauts structuraux. Il est aussi possible de réaliser des cartographies de propriétés mécaniques dans des sections de fibres de lin.
L’ensemble de ces travaux de recherche nous a permis de proposer différents scénarios de dégradation des fibres de lin au fil du temps, selon leurs conditions de dégradation, et de mieux cerner leurs points faibles. Nous avons ainsi observé que les défauts des fibres anciennes, tels que les fissures et les porosités, affectent directement leurs performances. Cependant, certaines fibres sans défaut et protégées de l’humidité peuvent conserver leur intégrité. Par exemple, des fibres provenant d’un tissu trouvé sous terre dans des conditions extrêmement sèches, d’un filet de pêche protégé par de la résine, ou d’un tissu conservé dans une tombe où les conditions atmosphériques sont très stables, présentent un état de conservation similaire à celui des fibres contemporaines.
Nous poursuivons ces travaux aujourd’hui avec d’autres techniques d’analyse : génétique pour tenter d’identifier les espèces de lin cultivées auparavant ou des études mécaniques plus approfondies ; mais aussi en étudiant d’autres fibres, en particulier du coton viking ou péruvien.
Le projet Anubis est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alain Bourmaud a reçu des financements de l'ANR via le projet ANUBIS (ANR-21-CE43-0010)
Camille Goudenhooft a reçu des financements de l'ANR-21-CE43-0010 – ANUBIS
Loren MORGILLO a reçu des financements de l'ANR (Projet FLOEME - ANR-21-CE10-0008).
19.03.2025 à 12:30
Emily Roycroft, Research Group Leader & ARC DECRA Fellow, Monash University
La société états-unienne Colossal Biosciences a annoncé la création d’une « souris laineuse » — une souris de laboratoire ayant subi une série de modifications génétiques qui lui ont donné un pelage laineux. L’entreprise affirme qu’il s’agit de la première étape vers la « désextinction » du mammouth laineux. Vraiment ?
La modification génétique réussie d’une souris de laboratoire témoigne des progrès réalisés par la science dans la compréhension de la fonction des gènes, de la biologie du développement et de l’édition du génome. Mais une souris laineuse nous apprend-elle vraiment quelque chose sur le mammouth laineux ?
Les mammouths laineux faisaient partie de la famille des éléphants et ont disparu de Sibérie continentale à la fin de la dernière période glaciaire, il y a environ 10 000 ans. La dernière population survivante, sur l’île Wrangel dans l’océan Arctique, s’est éteinte il y a environ 4 000 ans.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La souris domestique (Mus musculus) est une créature beaucoup plus familière, que la plupart considèrent comme un nuisible. C’est aussi l’un des organismes les plus étudiés en biologie et en recherche médicale. Nous en savons plus sur cette souris de laboratoire que sur n’importe quel autre mammifère en dehors de l’humain.
Colossal Biosciences détaille sa nouvelle recherche dans un article dit « preprint », c’est-à-dire un article publié mais qui n’a pas encore fait l’objet d’une évaluation par les pairs. Selon l’article, les chercheurs ont modifié l’expression de sept gènes différents chez des souris de laboratoire par le biais de la technique d’édition génétique.
Six de ces gènes ont été ciblés parce qu’un grand nombre de recherches chez la souris avaient déjà démontré leur rôle dans les caractéristiques liées aux poils, telles que la couleur, la texture et l’épaisseur du pelage.
Les modifications apportées à un septième gène — FABP2 — étaient fondées sur des données provenant du génome du mammouth laineux. Ce gène est impliqué dans le transport des graisses dans l’organisme.
Les mammouths laineux possédaient une version légèrement plus courte de ce gène, ce qui, selon les chercheurs, pourrait avoir contribué à leur adaptation à la vie dans les climats froids. Toutefois, les « souris laineuses », dotées de la « version mammouth » du gène FABP2, ne présentaient pas de différences significatives en termes de masse corporelle par rapport aux souris de laboratoire ordinaires.
Ces travaux montrent qu’il est possible d’éditer de manière ciblée des gènes dont la fonction est connue chez la souris. Après d’autres essais, cette technologie pourrait avoir sa place dans les efforts de conservation des espèces. Mais elle est loin d’être prometteuse pour la désextinction.
Colossal Biosciences affirme être en mesure de produire un éléphant génétiquement modifié « semblable à un mammouth » d’ici 2028, mais ce qui rend un mammouth unique ne se limite pas à la peau.
La lutte contre l’extinction devrait aller au-delà de la modification d’une espèce existante pour qu’elle présente des traits superficiels d’une espèce disparue. De nombreux aspects de la biologie d’une espèce disparue restent inconnus. Un manteau laineux est une chose. Recréer l’ensemble des adaptations, y compris les caractéristiques génétiques, épigénétiques et comportementales qui ont permis aux mammouths de prospérer dans les environnements de l’ère glaciaire, en est une autre.
Contrairement au thylacine (ou tigre de Tasmanie) — une autre espèce que Colossal souhaite ressusciter — le mammouth a un proche parent vivant, l’éléphant moderne d’Asie. Les liens plus étroits entre les génomes de ces deux espèces pourraient rendre la désextinction du mammouth techniquement plus réalisable que celle du thylacine.
Mais qu’une souris laineuse nous rapproche ou non de cette perspective, cette publication nous oblige à nous poser d’importantes questions éthiques.
Même si nous pouvions ramener le mammouth laineux, devrions-nous le faire ? La motivation de cet effort est-elle la conservation ou le divertissement ? Est-il éthique de ramener une espèce dans un environnement qui ne lui permet plus de survivre ?
Rien qu’en Australie, au moins 100 espèces ont disparu depuis la colonisation européenne en 1788, en grande partie à cause de l’introduction de prédateurs sauvages et du défrichement.
L’idée d’inverser le processus d’extinction est naturellement séduisante. On aimerait croire que l’on peut défaire le passé.
Selon le site web de Colossal :
« L’extinction est un problème colossal auquel le monde est confronté. Et Colossal est l’entreprise qui va le résoudre. »
Il est difficile de contester la première partie de cette affirmation. Mais se concentrer sur la « résurrection » d’espèces disparues détourne l’attention d’une réalité plus urgente : des espèces disparaissent en ce moment même, et nous n’en faisons pas assez pour les sauver.
Nous devrions d’abord nous concentrer sur les promesses de sauver les espèces survivantes plutôt que sur celles de ramener les espèces mortes.
En investissant davantage dans la surveillance des espèces menacées, dans de nouvelles méthodes de lutte contre les parasites et dans la gestion génétique de la conservation, nous pouvons inverser la tendance à l’extinction et assurer l’avenir des espèces qui subsistent.
Il existe une longue liste d’espèces menacées. Avec le financement adéquat et l’attention portée à la conservation, nous pouvons faire quelque chose pour les sauver avant qu’il ne soit trop tard.
Emily Roycroft est financée par le Conseil australien de la recherche, le programme L'Oréal-UNESCO pour les femmes et la science et l'Académie australienne des sciences.
19.03.2025 à 12:30
Edith Heard, Directrice générale de l'EMBL (European Molecular Biology Laboratory), Laboratorio Europeo de Biología Molecular
Edith Heard est biologiste et directrice générale de l’European Molecular Biology Laboratory (EMBL) et professeur au Collège de France. Elle a reçu la médaille d’or du CNRS en 2024 pour ses travaux sur l’épigénétique et l’inactivation du chromosome X.
Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, reviennent avec elle sur sa carrière, depuis sa thèse jusqu’à son rôle de dirigeante, qu’elle exerce avec une passion intacte, pour comprendre l’importance de la recherche en épigénétique sur la santé des femmes et décrypter les fausses croyances qui entourent sa discipline.
Quelle est la différence entre génétique et épigénétique ?
Edith Heard : L’épigénétique est à la fois un concept ancien et une discipline très récente. Au moment où les lois de la génétique et de l’hérédité ont été découvertes, ou plutôt redécouvertes, au début du XXe siècle, des scientifiques s’intéressaient à l’embryologie et au développement. Ils ont réalisé que l’hérédité des caractères avait un lien avec la manière dont un organisme se développe.
En 1942, Conrad Hal Waddington, généticien et embryologiste britannique, a décidé de créer le mot « épigénétique ». C’est une fusion entre génétique et épigenèse qui était le mot utilisé par le médecin anglais William Harvey au XVIIe siècle pour décrire le concept de développement d’un être vivant : de la simplicité à la complexité.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Depuis, la notion a évolué. Dans les années 1970, différents chercheurs, tels que Robin Holliday et Arthur Riggs, ont commencé à étudier une modification de l’ADN : la méthylation (processus par lequel certaines bases nucléotidiques peuvent être modifiées par l’addition d’un groupe méthyle, CH3).
Ils se sont demandé si cette marque pouvait être à la base du fait qu’une cellule est capable de maintenir certains caractères au cours de sa vie et lors des divisions. Dans un organisme, l’ADN est toujours le même, quelle que soit la cellule (à de rares exceptions près). Ce qui change, ce sont les gènes qui vont être différemment exprimés selon le type cellulaire, et ces différences sont maintenues de manière stable dans le temps. Holliday et Riggs ont postulé (indépendamment l’un de l’autre) que la méthylation de l’ADN pourrait jouer un rôle dans cette expression différentielle et son maintien.
Ainsi est née la deuxième définition de l’épigénétique qui désigne « tout changement d’expression génique stable et héritable, au cours de divisions cellulaires, mais qui n’implique pas un changement au niveau de sa séquence ».
Et vous, sur un plan plus personnel, quand avez-vous découvert cette discipline ?
E. H. : Pendant ma thèse en Angleterre à la fin des années 1980, je travaillais sur les cellules cancéreuses et, plus particulièrement, sur un phénomène qui s’appelle l’amplification génique. Lors de cancers, certains gènes vont connaître une amplification en nombre : normalement on n’a que deux copies d’un gène dans une cellule mais, dans le cancer, certains gènes sont présents dans des centaines, voire des milliers de copies. Certains de ces gènes agissent comme un accélérateur du cancer, d’où la pression de sélection pour les amplifier. Ce type de changement est symptomatique de l’instabilité génétique qui caractérise les cellules cancéreuses. Par ailleurs, maintenant nous savons que beaucoup de tumeurs montrent aussi une instabilité épigénétique !
Pour mon projet de thèse, je cherchais à comprendre ce processus d’amplification : comment l’ADN peut-il commencer à s’amplifier dans certaines régions ? Et quelle est l’organisation de ces régions amplifiées ? En travaillant sur ce sujet, j’ai réalisé que les génomes des cellules cancéreuses sont extrêmement remaniés et difficiles à étudier. Et pour ajouter de la complexité, il fallait que j’utilise des techniques de l’époque pour cartographier la région amplifiée du génome que j’étudiais.
Aujourd’hui, on pourrait tout séquencer avec une machine et connaître les séquences très facilement. Si je les avais faits de nos jours, j’aurais pu réaliser la plupart de mes travaux de thèse en une ou deux semaines, alors que cela m’a pris quatre ans ! À l’époque, on coupait l’ADN par des enzymes de restriction. Ce sont des protéines qui identifient des séquences dans l’ADN et qui peuvent les couper spécifiquement. En découpant le génome avec différentes enzymes, on pouvait cartographier un génome entier ou une région. J’utilisais ces enzymes, mais il se trouve qu’elles sont sensibles aux marques épigénétiques comme la méthylation de l’ADN : quand l’ADN est méthylé, l’enzyme ne coupe pas.
C’était un problème pour mon projet, puisqu’il fallait que je coupe l’ADN des cellules cancéreuses que j’étudiais pour mieux le caractériser. Je me suis donc mise à étudier la littérature scientifique sur la méthylation de l’ADN et sur les méthodes pour la rendre réversible. Il se trouve que certains agents chimiques (comme la 5-azacytidine) peuvent conduire à l’effacement de cette méthylation. La 5-azaC est utilisée en clinique pour traiter certains cancers du sang.
J’ai pu démontrer, pendant mes recherches de thèse, qu’après traitement des cellules avec la 5-azaC, je pouvais couper mon ADN complètement et l’analyser. C’est le premier papier que j’ai publié dans lequel j’expliquais cette méthode.
Plus tard, quand j’ai dû choisir un sujet de postdoctorat, j’ai parlé avec des scientifiques de mon intérêt pour l’épigénétique et ils ont pointé un sujet qui n’était pas encore très connu : l’inactivation du chromosome X. C’est un phénomène épigénétique qui touche un chromosome entier chez les femmes. Un des deux chromosomes X est inactivé. En 1990, j’ai commencé à travailler là-dessus et je suis devenue une spécialiste de l’épigénétique à partir de ce moment-là.
Pourquoi, chez les femmes, un des deux chromosomes X doit-il être désactivé ?
E. H. : Chez les femmes, il y a deux chromosomes X. Chez les hommes, il y a un X et un Y. Au cours de l’évolution, petit à petit, le Y est devenu de plus en plus petit et contient donc beaucoup moins de gènes. Par contre, le chromosome X est l’un des plus grands et compte plus de 1 000 gènes. Avoir deux X chez les femelles et un seul chez les mâles, c’est un énorme déséquilibre. On pense que ce processus d’inactivation du X a évolué pour redresser ce déséquilibre.
Dans un embryon, si un des deux chromosomes X n’est pas inactivé, il meurt très tôt. Une double dose de certaines protéines produites par les gènes de ce chromosome est certainement létale. Quand un X est inactivé, presque tous les gènes deviennent réprimés ou silencieux, ils ne sont pas exprimés. L’ADN est toujours là, mais les gènes ne sont plus exprimés et cet état est maintenu au fil des divisions cellulaires grâce à des marques épigénétiques comme la méthylation de l’ADN.
Est-ce que c’est toujours le même chromosome X qui est désactivé ?
E. H. : Au tout début du développement de l’embryon, les deux X sont actifs, ce n’est qu’au stade où l’on compte une centaine de cellules que l’inactivation a lieu. Le choix est fait d’inactiver soit le X paternel, soit le X maternel. Une fois que ce choix est fait dans une cellule, il est maintenu grâce aux mécanismes épigénétiques. En revanche, toutes les cellules n’inactivent pas le même X.
C’est pour cela que les femmes sont constituées d’une mosaïque de cellules où il y a soit le X paternel, soit le X maternel exprimé. En général, environ 50 % des cellules expriment un X maternel et 50 % un X paternel, et cette décision est stable au cours de la vie de la cellule et lorsqu’elle se divise.
Quels ont été vos apports scientifiques dans la compréhension de ce processus ?
E. H. : Quand j’ai commencé mon postdoc en 1990, on venait de découvrir un gène, présent sur le chromosome X, qui produit un ARN qui est à la base de la mise en place de l’inactivation du X. C’est le gène Xist. On ignorait cependant comment il était régulé, c’est-à-dire quand et comment cet ARN est-il produit à partir d’un chromosome X, seulement et uniquement, dans les cellules XX.
Ce mécanisme de régulation de Xist est très particulier. Quand il y a un seul X dans la cellule, le gène Xist ne s’exprime pas. S’il y en a deux, une des deux copies va s’exprimer de manière aléatoire.
Mon premier projet a été de comprendre la régulation de ce gène en étudiant son paysage génomique : j’y ai consacré les dix premières années de ma carrière, car la région qui est nécessaire et suffisante pour son profil d’expression est grande et complexe. Puis j’ai cherché à comprendre comment l’ARN produit par le gène Xist agit pour déclencher l’inactivation du X. Mon équipe de recherche a montré qu’une protéine, appelée SPEN, qui s’associe avec cet ARN est capable d’inactiver tous les gènes d’un chromosome X.
Aujourd’hui, on essaie de comprendre comment cette protéine agit pour réprimer un gène. On pense qu’elle interfère avec le processus d’expression lui-même, c’est-à-dire avec la possibilité qu’ont les gènes d’être transcrits en un ARN qui sera ensuite traduit en protéine. Pour réprimer les gènes, il faut empêcher cette transcription vers un ARN. Cette protéine SPEN est capable de perturber la transcription de ces gènes probablement par plusieurs mécanismes avec ses multiples partenaires que nous avons identifiés.
Comment une cellule peut-elle savoir qu’elle compte deux chromosomes X ?
E. H. : Ça reste une des grandes questions dans le domaine ! Il y a un dialogue, qui, je dois le dire, reste encore assez mystérieux, entre les chromosomes. Mon labo a travaillé pendant pas mal d’années sur ce mécanisme.
À un moment, on pensait qu’il y avait une reconnaissance physique : qu’ils entraient en contact. On avait découvert, en regardant les cellules in vivo par microscopie avec des marqueurs fluorescents, que les deux chromosomes X dans une cellule s’associent transitoirement — justement au niveau du gène Xist — et qu’après cette rencontre, en se séparant, il y a un X qui va exprimer Xist et l’autre pas.
C’était une très belle hypothèse, mais le problème c’est qu’ensuite, on l’a testée en utilisant un système qui nous permettait d’accrocher les deux chromosomes X à la périphérie du noyau de la cellule pour empêcher l’interaction. Et on a montré que tout se passait normalement, avec un seul X qui exprime Xist et l’autre pas. Donc on a prouvé que cet appariement physique n’a pas de rôle dans le choix du X à inactiver, ni dans le comptage des chromosomes. C’était une déception, car c’était une hypothèse sur laquelle on avait travaillé pendant plusieurs années. Mais c’est ça, la science : on a testé notre propre hypothèse et on l’a tuée !
Il y a eu d’autres études, pas dans mon laboratoire cette fois, qui ont montré qu’à côté du gène Xist, il y a un gène responsable de la production d’une protéine appelée RLIM, ou RNF12. Il a été montré qu’une double dose de cette protéine RLIM est la manière par laquelle la cellule reconnaît qu’elle a plus d’un chromosome X. Par contre, on ne sait toujours pas comment la cellule choisit d’inactiver l’un ou l’autre des X.
Quelles sont les conséquences de cette inactivation du X ?
E. H. : Le chromosome X est très connu dans l’étude des maladies génétiques, et cela pour une raison simple : c’est que les hommes n’ont qu’une seule copie. Pour eux, quand il y a une mutation dans un gène du X, ça se voit tout de suite parce qu’il n’y a pas d’autre copie pour la masquer. Beaucoup de maladies sont liées à l’X, y compris la dystrophie musculaire, l’hémophilie, des problèmes neurologiques ou des maladies du système immunitaire.
Chez les femmes, il y a deux versions, ou allèles, des gènes situés sur les chromosomes X, et toutes les cellules ne vont pas exprimer la même à cause de l’inactivation de l’un ou l’autre X. Cela explique que les femmes sont moins touchées que les hommes par ces pathologies. Il y a plusieurs types de maladies qui se retrouvent beaucoup plus fréquemment chez les hommes que chez les femmes. La dystrophie musculaire, par exemple, qui touche surtout les hommes.
Il y a donc des maladies liées à l’X qui impactent moins les femmes, mais il y a un processus biologique important à noter : on observe que certains des gènes, qui étaient silencieux sur le chromosome X inactif, peuvent se réactiver. Dans ces cas-là, on peut se retrouver dans une situation où cette réactivation donne une double dose de protéine, ce qui peut avoir un effet nocif. Un des exemples les plus connus, c’est le gène qui code pour la protéine appelée TLR7, qui est impliquée dans le système immunitaire. On sait qu’une double dose de cette protéine peut donner lieu à des maladies auto-immunes, comme le lupus. On peut penser que c’est la raison qui explique que les maladies auto-immunes sont beaucoup plus fréquentes chez les femmes que les hommes.
À l’inverse, si cette réactivation touche des gènes dits suppresseurs de tumeur, alors ce mécanisme est bénéfique et pourrait avoir un effet protecteur. C’est une hypothèse qui expliquerait que les femmes sont moins touchées par certains cancers, comme celui du foie.
Plusieurs laboratoires, y compris le nôtre, s’intéressent à cette thématique de recherche.
On voit à quel point c’est une régulation très fine et qu’il peut y avoir des avantages ou des désavantages…
E. H. : Exactement. Je dis toujours que chaque gène raconte toute une histoire. Le X est un chromosome qui porte plus de 1 000 gènes. Chacun d’entre eux peut avoir un effet différent, et pas forcément le même à tous les stades de la vie. Il y a certains gènes qui peuvent avoir un effet très frappant à certaines étapes du développement ou dans certains organes ; puis, lors d’autres étapes, ou dans d’autres organes, n’avoir aucun effet.
C’est pour cela que chaque gène (et son profil d’expression sur le X actif ou inactif) mérite d’être étudié individuellement. Jusqu’à récemment, on n’avait pas les outils pour le faire. Mais on a maintenant de plus en plus de moyens pour analyser très finement le taux d’expression d’un gène spécifique et comprendre l’impact d’une double ou d’une simple dose. Ce n’est qu’avec ces connaissances fines que l’on pourra réellement comprendre l’importance de cette inactivation du X.
Ces modifications épigénétiques sont-elles transmises à la descendance ?
E. H. : Chez les mammifères, il y a un effacement des marques épigénétiques qui a lieu au cours de la formation de la lignée germinale (la production des spermatozoïdes ou des ovules). On a constaté que l’épigénome change massivement pour effacer les marques telles que la méthylation de l’ADN. Il y a donc une première reprogrammation.
Ensuite, il y a une deuxième phase d’effacement au moment de la fécondation, parce que le spermatozoïde et l’ovocyte sont des cellules très différenciées : elles ont beaucoup de caractères spécifiques que l’on ne retrouve pas dans d’autres cellules. Dans l’ovocyte fécondé, il faut donc enlever ces caractères des deux côtés, pour créer un embryon « totipotent » – c’est-à-dire, qui peut se développer pour former tout un organisme.
Au moment de la fécondation, il y a donc une deuxième phase de reprogrammation qui efface la plupart des marques épigénétiques et très peu de régions du génome gardent ou maintiennent un état épigénétique qui vient du parent. Ces quelques régions (environ 100) qui gardent leur état, on les qualifie de « soumises à l’empreinte génomique ». Elles héritent d’un état réprimé d’un parent grâce à des marques épigénétiques. Un dérèglement de ce processus peut perturber l’équilibre d’expression de multiples gènes d’une région, conduisant à l’apparition de certaines maladies spécifiques. Mais les régions soumises à l’empreinte sont l’exception à la règle de « tabula rasa », qui efface les marques épigénétiques au moment de la fécondation. Donc il y a très peu de mémoire cellulaire à travers les générations chez les mammifères.
Quelles peuvent être les applications de l’épigénétique ? Existe-t-il des « épimédicaments » ?
E. H. : Tout à fait, on l’a évoqué au début de cet entretien avec la 5-azacytidine, qui est capable de conduire à la perte des marques épigénétiques de méthylation de l’ADN. Elle est utilisée en clinique depuis des décennies, sans que l’on comprenne son mode de fonctionnement précis, ni sur quels gènes spécifiques elle a un effet. On savait que chez des patients atteints de dysplasie myéloïde (maladie causant une production insuffisante de cellules sanguines saines par la moelle osseuse) cette drogue pouvait ralentir l’apparition d’une leucémie.
Des études ont montré que le traitement des cellules cancéreuses peut être affecté par ces épidrogues. En clinique, de nouvelles épidrogues sont testées, mais ce n’est plus vraiment mon domaine. Par exemple, il y a des études qui suggèrent qu’un traitement par immunothérapie combiné à un usage d’épidrogues peut être plus efficace pour le traitement du cancer du poumon. Les épidrogues seules n’ont pas montré beaucoup de succès, mais la combinaison avec une immunothérapie peut avoir un impact.
Au-delà de ces applications, le terme « épigénétique » est devenu à la mode et est présenté comme une méthode miracle, que faut-il en penser ?
E. H. : Je dirais que l’épigénétique est à la mode depuis les années 2000, au moment du séquençage du génome humain. On commençait à comprendre quelles parties du génome étaient modifiées ou pas, et ça donnait peut-être l’espoir que les marques épigénétiques pouvaient changer la « finalité » des gènes dont on hérite. Si on peut réprimer ou activer des gènes par les modifications épigénétiques, peut-être que l’on peut changer notre « destin génétique ». C’est ça qui fait rêver ou fantasmer les gens.
Il y a beaucoup de bruit autour du fait que des changements de notre environnement, comme notre nutrition par exemple, pourraient changer notre épigénome. C’est évident que, si on subit un évènement extrême, que ce soit un choc thermique ou une malnutrition, qu’il s’agisse d’un adulte, d’un fœtus ou même d’une cellule, on change l’expression de nos gènes. Est-ce que c’est de l’épigénétique ? Pour moi, non. Je pense qu’il y a beaucoup de mauvaises informations qui sont propagées. Les changements épigénétiques peuvent avoir un lien avec l’activité des gènes, mais de là à dire que l’on va traiter des gens ou mesurer leur état de santé par les marques épigénétiques, je pense que ce n’est pas vrai, car on ne comprend pas assez ces phénomènes.
On entend également parler de liens entre l’épigénétique et le vieillissement cellulaire…
E. H. : Oui, beaucoup de recherches sont menées sur les manières de rajeunir les cellules. Est-ce que les marques épigénétiques jouent un rôle ? Je pense que ça reste totalement ouvert. On ne sait pas si les changements épigénétiques que l’on observe avec l’âge sont une cause ou une conséquence du vieillissement. Pour le moment, il y a une corrélation dans certains cas, mais, pour moi, il n’y a aucune donnée qui montre de manière définitive qu’un changement épigénétique est le déclencheur du vieillissement. Mais bon, peut-être que j’ai tort et qu’on va trouver le facteur, ou la modification, épigénétique qui fait rajeunir, ce serait super, mais je n’y crois pas.
Quels sont les grands sujets que vous allez suivre à l’avenir ?
E. H. : Je dirais d’abord qu’étudier l’inactivation du X est très important pour comprendre la biologie et, même, la santé des femmes. On sait qu’il y a des gènes sur le X qui peuvent donner lieu, comme on en a parlé, à une protection ou, au contraire, à une prédisposition à certaines maladies. Ces sujets de santé de la femme restent très peu étudiés pour des raisons historiques, et je pense qu’il est primordial de s’y pencher très sérieusement.
Un autre grand sujet, selon moi, porte sur la compréhension des organismes dans le contexte de l’environnement (que ce soit en lien avec l’épigénétique, ou pas). En tant que directrice générale de l’EMBL, j’ai mis en place un programme qui vise à comprendre le vivant dans son contexte naturel, parce que beaucoup de travaux en sciences de la vie se passent au laboratoire, et c’est normal parce qu’on veut contrôler les conditions de nos expérimentations. Mais, dans la réalité, le vivant n’évolue pas dans un contexte stérile et homogène. Donc, pour moi, c’est le grand défi : passer de l’échelle d’un individu, que ce soit un microbe ou un mammifère, isolé dans un laboratoire, à l’échelle d’une communauté ou d’une population, dans un écosystème. Si l’unité de l’organisme vivant est la cellule, l’unité de la vie sur notre planète est l’écosystème.
Maintenant que l’on a compris beaucoup de choses sur les bases moléculaires et cellulaires du vivant, il faut les transposer dans un contexte naturel. Prenons l’exemple de l’humain, avec, par exemple, la pandémie de Covid-19 qui nous a frappés : pourquoi, dans certaines populations, le virus avait-il plus d’effets et, dans d’autres, moins ? Si on veut vraiment comprendre le vivant, il faut sortir de nos laboratoires !
Comment jugez-vous la situation de la recherche aux États-Unis ? Craignez-vous une baisse de financement pour les recherches menées sur la santé des femmes ?
E. H. : Je voudrais dire que je crois que la science ouverte, les approches collaboratives et la collaboration internationale sont essentielles pour la recherche mondiale. La science repose sur la poursuite de la connaissance et s’appuie sur des efforts coordonnés et conjoints pour produire des idées de rupture et des solutions innovantes. Les défis mondiaux, tels que la santé publique, mais aussi le changement climatique ou la sécurité alimentaire, ne peuvent être relevés que par une communauté scientifique internationale fortement connectée.
J’ai bien sûr de nombreux contacts personnels avec des chercheurs et des institutions aux États-Unis et, pour avoir échangé avec des membres de la communauté scientifique dans de nombreux pays, je sais qu’il y a beaucoup de préoccupations et d’inquiétudes. La recherche sur la santé des femmes est un domaine important, mais il y en a bien sûr beaucoup d’autres, tous porteurs de découvertes importantes qui stimulent les progrès nécessaires pour relever les défis auxquels le monde est confronté.
Edith Heard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.03.2025 à 16:30
Pierre-Emmanuel Arduin, Maître de conférences en informatique, Université Paris Dauphine – PSL
Myriam Merad, Directeur de Recherche CNRS - Prévention des risques de catastrophe, sûreté, sécurité, résilience, responsabilité sociétale - Aide à la décision, Université Paris Dauphine – PSL
Connaissez-vous les « corrélations fallacieuses » ? Si les humains apprennent à ne pas se laisser berner par ces liens logiques apparents, les IA ont plus de mal.
Et si les ventes de dictionnaires en Allemagne étaient liées au nombre d’inscriptions à des cours de natation au Japon ? Et si la production d’énergie solaire à Taïwan influençait le cours en bourse de Netflix ?
On apprend très tôt qu’il y a une distinction entre corrélation et causalité : un lien n’explique toujours pas une cause. Notre cerveau cherche malgré tout un sens et des explications logiques lorsqu’il analyse des données : des lignes qui suivent la même inclinaison, des barres qui s’élèvent ensemble, ou encore des points qui se regroupent dans un diagramme. Instinctivement, il semble peu probable que la consommation de chocolat par habitant d’un pays soit corrélée au nombre de ses lauréats du prix Nobel : il s’agit là d’une « corrélation fallacieuse ».
Une équipe de recherche d’Apple a publié en septembre 2024 un article illustrant comment une banale modification de prénoms ou d’attributs des personnages d’un énoncé mathématique diminuait jusqu’à 10 % la part de réponses correctes fournies par diverses intelligences artificielles génératives. Ces liens, apparemment logiques, entraînent des corrélations fallacieuses. Imaginez un peu demander à une IA : « Adam a une pomme et Eve en a deux, combien ont-ils de pommes ? », puis lui demander ensuite : « Ada a une pomme et Evan en a deux, combien ont-ils de pommes ? » et obtenir des réponses différentes ! Pour un enfant, il parait clair que la présence d’Adam plutôt qu’Ada dans l’énoncé du problème ne change pas la réponse. Pour une IA, ce n’est pas si simple.
Comment se fait-il que nous arrivions à comprendre instantanément qu’il s’agit là de corrélations fallacieuses, là où les IA peuvent manifestement se laissent berner ?
Ce problème n’est pas anecdotique, puisque certains types d’IA sujettes à ces méprises logiques sont utilisés pour des systèmes critiques de sécurité informatique. Elles sont vulnérables à un type d’attaque appelé parfois apprentissage antagoniste ou « adversarial attacks ».
Pour pallier ce problème, les chercheurs développent des méthodes qui permettent de corriger les processus d’apprentissage des IA en identifiant les caractéristiques parasites qui mènent à des corrélations fallacieuses.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Pour comprendre comment les « GPT », ces IA qui semblent si prometteuses, se prennent les pieds dans le tapis des corrélations fallacieuses, il faut comprendre comment elles fonctionnent.
Parmi les modèles évalués dans la publication de septembre 2024 d’Apple, il y a GPT-4o, alors dernière création de la société OpenAI. Derrière le succès du GPT-4o, il y a un réseau de neurones Transformeur-Génératif-Pré-entraîné (les fameux GPT).
Génératif car il vise à générer du texte, préentraîné car il peut être réentraîné pour traiter des corpus documentaires spécialisés : contrats, composition mathématique ou analyse de code logiciel par exemple.
Les GPT appartiennent une plus grande famille de modèles appelés grands modèles de langage (LLM pour Large Language Model). Les LLM ont contribué à transformer les interactions humain-machines. Ils permettent à l’utilisateur d’interagir avec la machine via des instructions en langage naturel, appelées « prompts ». Ainsi, « écris-moi un article pour The Conversation sur le thème de l’IA Générative » est une instruction valide. En retour, le LLM répondra lui aussi en langage naturel, mais l’article en question ne serait pas publié car cela serait contraire à la charte éditoriale de The Conversation !
Pour préentraîner, les modèles, les chercheurs d’OpenIA ont utilisé un jeu de séquences de texte (de l’ordre du trillion de mots). Puis, à la manière d’un jeu de devinette, le transformeur doit analyser les séquences dont une partie est masquée, et prédire le contenu manquant. À chaque essai, les paramètres du modèle sont réajustés pour corriger la prédiction, c’est l’apprentissage.
Après l’entraînement, les paramètres appris permettent de représenter numériquement les relations sémantiques entre les mots (c’est le modèle de langage). Pour répondre à un utilisateur (c’est l’inférence), c’est le même processus : analyser la séquence (le prompt), prédire le mot suivant, puis le suivant, puis le suivant, etc.
Pour un utilisateur étranger au mécanisme à l’œuvre, le résultat sera bluffant, mais une fois encore, il ne s’agit que d’intelligence simulée par une machine. La syntaxe semble exacte, le raisonnement logique, les applications infinies : mathématiques, littérature, histoire ou géographie. Il ne faudra pas longtemps pour que les LLM se mettent à générer les copies des élèves, les mémoires des étudiants, ou soulager les chercheurs dans l’exécution de tâches fastidieuses.
S’il existe des liens fallacieux dans les séquences d’entraînement, ces derniers seront intégrés lors de la phase d’apprentissage et régénérés dans la phase d’inférence. Ce phénomène de « corrélation fallacieuse » ne concerne pas que les LLM, mais plus globalement les réseaux de neurones profonds utilisant de grandes quantités de données à l’entraînement.
Dans le domaine de la sécurité informatique, des chercheurs avaient déjà alerté en janvier 2024 sur des symptômes similaires pour des LLM spécialisés dans la recherche de vulnérabilités logicielles : leur recherche montre comment une modification des noms de variables, pourtant sans impact sur la logique du code analysé, vient affecter jusqu’à 11 % la capacité du modèle à correctement identifier du code vulnérable. Tout comme dans le cas d’une modification des prénoms dans l’énoncé du problème mathématique des pommes ci-dessus, l’un des LLM audités a par exemple appris à associer les fonctions faisant appel à des variables nommées « maVariable » (souvent donné dans les exemples adressés aux débutants) et leur vulnérabilité. Pourtant, il n’existe aucune relation de cause à effet entre le nom de cette variable et la sûreté du logiciel. La corrélation est fallacieuse.
Ces LLM sont aujourd’hui utilisés dans les entreprises pour relire le code écrit par des développeurs, supposés garantir la détection des bugs logiciels. Les IA permettent d’identifier les vulnérabilités ou les comportements malveillants en sécurité informatique, ce travail d’analyse est donc crucial. Sans cela, un attaquant subtil pourrait profiler le système de détection pour identifier ces biais, le manipuler et jouer sur ces derniers pour le contourner.
C’est pourquoi, à l’instar des travaux sur l’analyse de code source, nous sommes en train d’explorer l’application des méthodes d’inférence causale pour améliorer la robustesse des réseaux de neurones utilisés par les systèmes de détection d’intrusions dans les réseaux informatiques.
Les travaux de Judea Pearl, prix Turing d’Informatique 2011, indiquent en effet que sous certaines conditions, il est possible de distinguer les corrélations probablement issues d’une relation causale de celles qui sont fallacieuses.
En travaillant sur un système de détection d’intrusions, outil qui surveille le trafic réseau pour détecter des activités suspectes, il est possible d’identifier les corrélations qui pourraient être à l’origine de biais. Nous pouvons ensuite les perturber (à l’instar d’un changement de prénom) et entraîner à nouveau le modèle de détection. Mathématiquement, la corrélation fallacieuse se retrouve marginalisée dans la masse d’exemples perturbés et le nouveau modèle est dé-biaisé.
Qu’elles soient génératives ou non, les IA ayant appris des corrélations fallacieuses exposent leurs utilisateurs à des biais plus ou moins importants. Si les corrélations fallacieuses peuvent apparaître amusantes de par leur absurdité, elles peuvent également être source de discriminations.
Plus globalement, les récentes avancées en apprentissage profond, qui vont bien au-delà des IA génératives, bénéficient et vont bénéficier à de nombreux domaines, dont la sécurité informatique.
Néanmoins, bien que prometteuses, ces IA doivent être reconsidérées à leur juste place : elles peuvent certes permettre d’augmenter les capacités d’expertise, mais aussi induire des aveuglements dont les conséquences peuvent être dramatiques si l’on en vient à déléguer notre capacité de penser à des algorithmes.
Ainsi, il convient de nous éduquer au fonctionnement de ces systèmes — et à leurs limites — pour ne pas les suivre aveuglément. Le problème n’est pas tant l’absurdité d’un changement de prénom provoquant une baisse de performance, que le crédit que nous pouvons accorder au contenu généré par une IA.
Pierre-Emmanuel Arduin est membre de l'association française pour l'intelligence artificielle (AFIA).
Myriam Merad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2025 à 16:14
Kevin Witzenberger, Research Fellow, GenAI Lab, Queensland University of Technology
Michael Richardson, Associate Professor of Media, UNSW Sydney
En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.
Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.
Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.
La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?
La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.
La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.
Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.
Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.
À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.
Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.
Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).
Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.
Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.
En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.
À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.
Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.
Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.
Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.
Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.
Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.
Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.
Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.
Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.
Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.
Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.
Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.
Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.
À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.
Kevin Witzenberger a reçu des financements du Australian Research Council.
Michael Richardson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2025 à 15:14
Robert Deng, AXA Chair Professor of Cybersecurity, and Professor of Information Systems School of Information Systems / Professor of Information Systems - School of Information Systems, Singapore Management University, AXA Research Fund
Stocker des données dans le cloud est désormais routinier, tant pour les particuliers que pour les entreprises, mais les risques de cybersécurité existent encore, notamment dans la gestion de l’authentification de l’utilisateur et le contrôle d’accès.
Les chercheurs développent de nouvelles méthodes afin d’assurer un stockage sûr, qui ne soit pas trop gourmand en énergie, et qui permette une exploitation efficace des données. Pour cela, ils proposent notamment d’effectuer les calculs directement sur des données cryptées.
En raison de la quantité énorme de données sensibles conservées en ligne, les systèmes de cloud sont devenus un outil indispensable aux opérations commerciales modernes, mais également une cible significative de cyberattaques. À l’heure actuelle, plus de 90 % des organisations s’appuient sur les services de clouds pour des opérations essentielles, et il y a plus de 3,6 milliards d’utilisateurs actifs dans le monde — ce qui signifie que 47 % de la population mondiale recourt aux services de clouds. La dépendance à leur égard est donc généralisée.
Malheureusement, cet usage intensif implique des risques accrus. Les violations de données s’accroissent, tant par leur fréquence que par leur gravité, et 44 % des entreprises ont fait part de failles dans leur environnement cloud. 14 % d’entre elles avaient connu une violation de données au cours des douze derniers mois.
Alors que les organisations transfèrent de plus en plus de données sensibles sur un cloud (près de la moitié des informations stockées sont considérées comme sensibles), la surface vulnérable aux attaques s’accroît pour les cybercriminels. Par conséquent, les incidents sont plus fréquents et à plus haut risque, puisque la perte d’informations sensibles peut avoir des effets importants, tant sur le plan financier que sur le plan de la réputation. Le coût moyen mondial d’une violation de données en 2024 était estimé à 4,88 millions de dollars.
Aujourd’hui, ce qu’on appelle le « chiffrement coté client » permet de préserver efficacement la sécurité des données et leur confidentialité. Cependant, pour que des données chiffrées soient utiles, il faut pouvoir s’en servir en toute sécurité — les exploiter en faisant des calculs, par exemple. Pour cela, il reste encore un long chemin à parcourir, car nous faisons encore face à de gros problèmes de performance et de mise à l’échelle. Les chercheurs continuent de chercher les moyens de combler cette défaillance, afin de permettre un usage massif de ces données qui soit respectueux de la confidentialité, plus efficace et accessible à des applications à grande échelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’authentification utilisateur et le contrôle d’accès sont parmi les mécanismes essentiels permettant d’éviter les violations de données.
L’authentification utilisateur est la procédure de vérification de l’identité des utilisateurs tentant d’accéder à des ressources sur le cloud. Elle constitue la première ligne de défense, mais elle est largement considérée comme le maillon le plus faible de la chaîne de sécurité : en effet, on estime que 81 % des violations effectuées par des hackers s’appuient sur des mots de passe volés ou faibles. Même si l’authentification utilisateur a beaucoup évolué au cours des dernières années, les attaques destinées à compromettre la procédure ont suivi le mouvement.
Le contrôle d’accès — qui consiste à réguler qui peut visualiser, utiliser ou interagir avec les ressources du cloud, que ce soient des données, des applications ou des services — est la deuxième ligne de défense. Un contrôle d’accès efficace garantit que seuls les utilisateurs ou appareils autorisés disposent des permissions indispensables pour accéder et modifier certaines ressources, ce qui minimise les risques de sécurité et évite l’accès non autorisé à ou l’utilisation frauduleuse du cloud.
Dans les environnements cloud d’aujourd’hui, ce sont les serveurs qui assurent le contrôle d’accès et en sont responsables techniquement. Ainsi, une configuration défectueuse, qu’elle soit due à une erreur humaine ou à un bug logiciel, tout comme une cyberattaque sur les serveurs, peut aboutir à des incidents graves. De fait, la NSA (National Security Agency des États-Unis) considère le défaut de configuration comme l’une des vulnérabilités principales d’un environnement cloud.
Les données peuvent être chiffrées et déchiffrées sur les appareils de l’utilisateur avant d’être transférées sur le cloud. De cette façon, les données sont cryptées pendant les phases de transit et de stockage et donc inaccessibles à toute personne ne possédant pas les clés de décryptage, y compris les fournisseurs de services et les potentiels cyberattaquants. Tant que les clés de décryptage restent sécurisées chez l’utilisateur final, la sécurité et la confidentialité des données peuvent être assurées même en cas de compromission du compte utilisateur sur le cloud ou du serveur cloud lui-même.
Les solutions de chiffrement côté client utilisent soit des clés de chiffrement privées, soit des clés publiques (cryptographie symétrique ou asymétrique). Par exemple, Google Workspace passe par un serveur en ligne pour distribuer les clés destinées au chiffrement et au partage des données entre utilisateurs autorisés. Mais un serveur de distribution de clés de sécurité peut limiter à la fois la performance et la sécurité du processus.
Afin de parer à ce problème, MEGA, un autre service de chiffrement côté client, utilise la cryptographie à clé publique, ce qui permet d’éviter l’étape du serveur de distribution de clés en ligne. Cette stratégie nécessitant cependant une gestion des certificats électroniques sophistiquée, car le nombre de chiffrements par cryptographie asymétrique est proportionnel au nombre potentiel d’utilisateurs à partager un document, elle est difficile à appliquer à grande échelle.
À lire aussi : La chasse au gaspillage dans le cloud et les data centers
Supposons qu’un hôpital veuille confier le stockage des dossiers électroniques de ses patients à un service de cloud et souhaite établir une politique spécifique d’accès aux dossiers. Avant de délocaliser un dossier, l’hôpital pourra spécifier que seuls les cardiologues de l’hôpital universitaire, ou bien les chercheurs de l’institut de sciences de la vie pourront y accéder. Notons que « CT » désigne le dossier médical chiffré et que « AP » = (cardiologue ET hôpital universitaire) OU (Chercheur ET institut de sciences de la vie) représente la politique d’accès. CT et AP sont liés sur le plan cryptographique au moment du transfert vers le cloud pour le stockage de données. À partir de là, seuls les utilisateurs remplissant les conditions de AP peuvent déchiffrer CT afin d’accéder au dossier médical décrypté.
Ce système de chiffrement peut-être mis à l’échelle, car sa politique d’accès ne nécessite pas de lister tous les individus ayant l’autorisation d’accéder aux données, seulement les caractéristiques des utilisateurs potentiels. Ce n’est pas le serveur cloud qui fait respecter le contrôle d’accès (c’est-à-dire le décryptage) aux données chiffrées. Ce contrôle d’accès est mis en œuvre grâce aux algorithmes de chiffrement et de déchiffrement eux-mêmes, qui sont démontrés sûrs en théorie.
Ce type de décryptage, déjà en usage, demande de grosses ressources de calcul. Pour des appareils aux ressources limitées, ceci est un inconvénient majeur en termes d’efficacité. Pour faire face à ce problème, nous avons proposé un protocole qui réduit la consommation de l’opération de déchiffrement de deux ordres de grandeur pour l’utilisateur final en sous-traitant le plus gros de la charge de travail à un serveur cloud public.
Un autre problème essentiel dans l’utilisation du chiffrement côté client est la « révocation de l’utilisateur » : lorsqu’un utilisateur quitte le système, change de poste ou perd sa clé privée, la clé doit être révoquée afin d’empêcher un accès non autorisé à des données sensibles. Les systèmes actuels recourent principalement à l’horodatage pour retirer aux utilisateurs révoqués la possibilité de déchiffrer de nouveaux contenus. Cependant, l’horodatage nécessite des mises à jour régulières, ce qui peut demander des ressources de calcul importantes pour les plus grands systèmes. Nous avons donc proposé un système de chiffrement basé sur le matériel (hardware) et des attributs révocables, afin de rendre ce processus moins coûteux.
À lire aussi : Le « fog computing » est l’avenir du cloud – en plus frugal et plus efficace
Idéalement, les serveurs devraient être capables d’accomplir des opérations importantes sur des données chiffrées sans même avoir à les décrypter, ce qui permettrait de préserver la confidentialité à chaque étape.
C’est là qu’intervient ce qu’on appelle le « chiffrement entièrement homomorphe ». Il s’agit d’une technique de chiffrement de pointe qui permet que des opérations mathématiques — en particulier addition et multiplication — soient effectuées sur des données chiffrées directement par un serveur, sans passer par le déchiffrement.
Toutefois, les systèmes de pointe actuels ne sont pas encore utilisables pour les opérations à grande échelle à cause du « bruit » : des données aléatoires sont introduites involontairement par les opérations de chiffrement. Ce bruit menace l’intégrité des résultats des calculs et rend nécessaires des opérations fréquentes de suppression des imprécisions — encore une fois, un processus coûteux en ressources de calcul, en particulier sur les systèmes de données volumineux.
Nous proposons pour ce problème une nouvelle approche de traitement direct de données chiffrées. Elle permet d’effectuer un nombre illimité d’opérations arithmétiques sans recourir au « bootstrapping » (l’opération mathématique permettant de réduire le bruit) et atteint des performances supérieures pour diverses opérations de calcul sécurisé, par exemple la réidentification respectueuse de la vie privée.
Créé en 2007 pour accélérer et pour partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X (@AXAResearchFund).
Robert Deng a reçu des financements de la Singapore National Research Foundation.
13.03.2025 à 18:11
Victor Charpenay, Enseignant-chercheur au laboratoire d'informatique, de modélisation et d'optimisation des systèmes (LIMOS), Mines Saint-Etienne – Institut Mines-Télécom
Le Sommet pour l’action sur l’intelligence articifielle qui s’est tenu à Paris début février 2025 se voulait optimiste. Il a abouti à une déclaration pour « une IA durable et inclusive, pour les gens et la planète ». Les discussions sur la durabilité ont principalement eu lieu au ministère de la transition écologique, où était présent un de nos chercheurs.
Il faut distinguer différents types d’IA. L’IA générative, en particulier, n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources.
Le premier Sommet sur l’IA, organisé en 2023 par le Royaume-Uni sous le nom de Sommet pour la sécurité de l’IA, s’était conclu par une déclaration prudente sur les risques existentiels que poserait l’IA vis-à-vis de l’humanité. Le second Sommet qui se tenait le mois dernier à Paris, cette fois pour l’action sur l’IA, aura abouti à une déclaration beaucoup plus optimiste centrée sur une IA « pour les gens et la planète », pour reprendre les termes de son titre.
L’événement principal du Sommet pour l’action sur l’IA, organisé au Grand Palais, accueillait essentiellement des représentantes et représentants de gouvernements, il n’avait pas vocation à rentrer dans le détail. Pour comprendre ce que peut être une IA « pour les gens » et surtout « pour la planète », comme nous allons le voir, il faut pourtant différencier plusieurs types d’IA et préciser les termes.
Le Forum pour l’IA durable, qui se tenait en marge de l’événement principal, allait dans ce sens.Il s’est tenu au ministère de la transition écologique, à deux kilomètres du Grand Palais. En une journée, 25 personnes issues d’administrations publiques, d’entreprises de la Tech et du monde académique invitées par le ministère se sont succédé sur scène. L’organisation la plus impliquée sur la question était, semble-t-il, l’ONU, représentée par cinq personnes. J’étais, moi, dans l’audience.
La conversation durant le forum peut se résumer ainsi :
Big Tech : « Regardez ce que peut faire l’IA ! Elle a déjà un impact positif sur nos sociétés. »
Administrations publiques : « De quoi auriez-vous besoin pour faire progresser cette technologie pleine de promesses ? »
Big Tech : « De plus d’énergie ! »
Recherche : « Attention tout de même au coût environnemental global de l’IA générative, qui a aussi un impact négatif sur nos sociétés. »
Big Tech : « Le domaine évolue très vite. Demain, des gains en efficacité absorberont la hausse de consommation, l’impact net sera positif ! »
Recherche : « C’est sans compter sur les effets rebonds qui amplifieront le recours à l’IA générative. »
Big Tech : « Ce n’est pas à nous de décider ce que les individus feront avec l’IA. Nous faisons confiance à la créativité humaine. »
Administrations publiques : « Cette IA pourrait-elle par exemple servir à la lutte contre le réchauffement climatique ? »
Recherche : « Certainement. Mais on ne parle alors plus d’IA générative, qui n’est que la dernière génération d’une longue série d’innovations technologiques.
Administrations publiques : « Je reviens quand même à l’IA générative. On observe déjà une forte inégalité d’accès à cette technologie (selon le revenu et selon le genre). Ne devrait-on pas essayer de la rendre plus accessible ? »
Recherche : « Vous décidez. Mais il faudrait alors une collaboration plus étroite avec la Tech, pour mieux estimer son impact net réel. Nous n’avons pas assez de données fiables. Vous non plus, d’ailleurs. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’IA générative a quelque chose de spectaculaire. Elle est en effet pleine de promesses. Pourtant, quelques minutes à peine après le lancement officiel de la journée, Sarah Myers West, co-directrice de l’institut de recherche privé AI Now, rappelait un fait essentiel : le développement de cette technologie est en train de menacer la transition écologique.
À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?
À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
Lorsque Donald Trump et Emmanuel Macron annoncent, les 21 janvier et 9 février respectivement, des deals à plusieurs centaines de milliards de dollars pour construire de nouveaux centres de données dédiés à l’IA, l’effet attendu est une hausse importante de la consommation électrique dans les régions concernées.
Dans l’assistance, l’association Beyond fossil fuels prend la parole pour rappeler qu’à court terme, ce surplus d’électricité sera probablement produit avec l’infrastructure existante, encore très émettrice de CO2 dans de nombreux pays.
À cet avertissement, Nvidia et Google, représentées par leur directeur et directrice sustainability (durabilité), répondent par des promesses. Le travail d’ingénierie dans ces entreprises serait tel que des gains substantiels en efficacité permettraient d’absorber la hausse actuelle de consommation due à l’IA.
Le représentant de Nvidia annonce par exemple une réduction de 75 % de la consommation électrique d’une génération à l’autre de leurs cartes graphiques. Les cartes conçues par Google, optimisées pour les réseaux de neurones artificiels, seraient encore plus performantes. Il n’y a pas eu d’opposition frontale entre les entreprises de technologie et les universitaires ce 11 février, mais, dans ses publications scientifiques, Google critique régulièrement les évaluations d’empreinte carbone faites par le monde académique, au motif qu’elles ne prendraient pas suffisamment en compte les dernières innovations.
Comme en réponse à cet argument, à la suite de Sarah Myers West, la chercheuse Sasha Luccioni prévient que l’histoire des sciences et techniques n’a jamais démontré que les gains en efficacité favorisent la sobriété. Au contraire, l’efficacité amène quasiment systématiquement un regain de consommation qui, en volume global, augmente la consommation énergétique, l’impact environnemental ou, dans le cas de l’IA, la quantité de calcul associée à une technologie. Ce phénomène porte un nom : le paradoxe de Jevons ou effet rebond.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
En ligne avec cet argument, l’OCDE a proposé une méthodologie de mesure d’impact environnemental qui prend en compte non seulement la production, le transport, l’exploitation et le recyclage de l’équipement informatique mais aussi les impacts indirects de l’adoption de systèmes d’IA, comme le recours systématique à ChatGPT plutôt qu’à un moteur de recherche.
Malgré ces précautions, l’OCDE, l’Agence internationale de l’énergie, l’ONU et d’autres administrations publiques présentes au forum sont très enclines à voir l’IA comme un outil essentiel de lutte contre le réchauffement climatique. Certes, certains systèmes d’IA ont été conçus dans cet objectif. Le directeur du CivicDataLab, Gaurav Godhwani, avait été invité pour en donner un exemple : dans l’état d’Assam en Inde, où les inondations sont de plus en plus fréquentes, le CivicDataLab propose une application d’analyse de risques pour mieux anticiper ces inondations.
La communauté scientifique Climate Change AI, représentée par David Rolnick et Lynn Kaack à Paris, a fait un travail méticuleux de recensement de ce genre d’approches. Mais les chercheuses et chercheurs enchaînent avec une précision importante : l’IA regroupe sous un seul nom, fortement polysémique, de nombreuses techniques de traitement de la donnée.
Lorsque l’IA est utilisée comme outil d’aide à la décision, ce n’est plus de l’IA générative. Il n’est pas nécessaire de générer du texte ou des images pour analyser des images satellites (pour anticiper des catastrophes naturelles) ou prédire la demande en électricité d’un territoire (pour en optimiser la distribution). Or, les méthodes vouées à ces problèmes consomment nettement moins d’électricité qu’un modèle d’IA générative et sont loin de nécessiter des investissements conséquents dans des centres de données.
Dans une méta-analyse du travail de Climate Change AI, il apparaît que plus de la moitié des approches recensées sont des méthodes d’apprentissage machine connues depuis dix ou quinze ans, avant l’émergence des IA génératives. Même lorsque l’IA générative se révèle intéressante dans la lutte contre le réchauffement climatique, pour les modèles météorologiques par exemple, son échelle est nettement réduite par rapport à celle des grands modèles utilisés par ChatGPT ou Mistral. Le laboratoire d’IA de Météo France, qui avait un stand au ministère de la transition écologique, a développé un modèle pour estimer les précipitations futures, conceptuellement proche de DALL·E (le générateur d’image de ChatGPT) mais 200 fois plus petit en nombre de paramètres.
Le terme d’« IA durable », sujet central des discussions ce 11 février, est donc utilisé pour désigner deux choses bien distinctes.
Il fait d’abord référence à une IA dont on maîtriserait la consommation énergétique et l’impact environnemental, mais les orateurs et oratrices du Forum pour l’IA durable l’utilisent aussi pour désigner une IA au service du développement durable. L’IA non générative coche les deux cases ; l’IA générative grand public, jusqu’à preuve du contraire, n’en coche aucune. L’IA des entreprises de technologie et celle des administrations publiques ne se ressemblent pas.
Bien que l’IA générative concentre tous les investissements et menace en partie la transition écologique, les quelques centaines de millions d’usagers de ChatGPT diraient peut-être à sa décharge qu’elle est utile à toute sorte de tâches. Il serait alors justifié de lui allouer une partie non négligeable de l’électricité mondiale.
Peut-on ainsi dire que l’IA générative est une IA « pour les gens » ? Autrement dit, si ChatGPT obtenait une dérogation à l’effort mondial de lutte contre le réchauffement climatique, qui en bénéficierait réellement ?
Ce 11 février justement, Christine Zhenwei Qiang, directrice au numérique de la Banque mondiale, reprend les conclusions d’un rapport de son institution sur l’adoption de ChatGPT dans le monde. Selon ce rapport, le trafic vers ChatGPT vient à 50 % de pays à fort revenu alors que ces pays ne représentent que 13 % de la population mondiale. Les pays à faible revenu représentent à l’inverse 1 % seulement du trafic. Comme un symbole, la ministre de l’information et des communications du Rwanda, un pays à faible revenu selon la Banque mondiale, était initialement prévue dans le programme de la journée, mais n’y a finalement pas participé.
Toujours selon le rapport de la Banque mondiale, les femmes ne représentent qu’un tiers seulement des usagers. Ces deux catégorisations, par revenu et par genre, illustrent l’utilité toute relative de l’IA générative pour l’humanité.
Victor Charpenay a reçu des financements du réseau d'excellence ENFIELD (European Lighthouse to Manifest Trustworthy and Green AI) dans le cadre du programme Horizon Europe.
12.03.2025 à 17:30
Frédérique Hintzy, Professeure des Universités en sciences du Sport, Université Savoie Mont Blanc
Brice Picot, Maître de conférence - kinésithérapeute, Université Savoie Mont Blanc
En ski de descente, près d’un quart des blessures se concentre sur la rupture du ligament croisé antérieur du genou. Fait surprenant : une skieuse « loisir » court un risque trois fois plus élevé de se blesser que ses homologues masculins. Ratio qu’on ne retrouve pas chez les professionnels. Comment l’expliquer et surtout, comment prévenir ces blessures ?
La neige, le soleil, les éclats de rire, la glisse… toutes ces belles images associées aux vacances d’hiver… et soudain la chute, le genou qui se tord entraînant une lésion du ligament croisé antérieur (LCA), la douleur… et les suites : opérations, séances de kiné, arrêt de travail… Les ruptures de ce ligament comptent à elles seules pour 20 % des blessures en ski. Tous les niveaux de pratique sont touchés, du débutant au compétiteur. Mais il faut souligner qu’une skieuse « loisir » a un taux de lésion du LCA trois fois plus élevé que celui de ses homologues masculins.
Le ligament croisé antérieur (LCA) est situé au centre de l’articulation du genou et en assure sa stabilité, aidé par des contractions musculaires. Anatomiquement, le mécanisme qui conduit à sa lésion correspond à un mouvement de « torsion » excessif du tibia sous le fémur, le genou rentrant vers l’intérieur.
Les mécanismes lésionnels et les solutions de prévention diffèrent entre la pratique compétitrice et récréative, concentrons-nous sur la pratique de loisirs, constituant la plus grande partie des vacanciers dans les stations de ski.
Tout d’abord, pourquoi le LCA est-il si souvent touché en ski alpin ? Plusieurs explications viennent malheureusement s’additionner, faisant de ce sport un cocktail explosif pour nos genoux !
Premièrement, le mouvement traumatique du LCA peut se produire dans de nombreuses situations de ski, à vitesse faible comme élevée, lors de chutes ou non. Il peut s’agir d’une contrainte mécanique avec une surcharge du genou lors d’une réception de saut ou sur un appui puissant. Une mise en tension musculaire peut aussi expliquer cette lésion, car trop forte, trop rapide et/ou non optimale.
Une autre particularité de la pratique du ski est la position fléchie du genou entre 30° et 90° lors du virage, or c’est justement l’amplitude articulaire dans laquelle le genou est le moins stable compte tenu d’un système ligamentaire détendu. Le genou peut aussi subir une flexion excessive suite à un déplacement du centre de gravité vers l’arrière et le côté, appelé mécanisme du « pied fantôme ». Des accélérations du tibia différentes de celles du fémur peuvent se produire, entraînant un cisaillement antérieur du tibia, une hyperextension brutale.
Une autre explication vient de l’environnement de pratique, comme la présence d’obstacles fixes (arbres, pylônes) et mobiles (les autres skieurs), des conditions météorologiques particulières (températures basses, visibilité dégradée) et changeantes (variations des qualités de la neige).
Enfin, deux autres explications concernent le matériel. Les chaussures rigides maintenant fermement le pied et la cheville, c’est bien le genou, la première articulation à être sollicitée et à subir les contraintes. Quant aux skis, ils sont aussi les ennemis de nos genoux. La carre d’un ski peut mordre la neige et ainsi partir dans une direction alors que celle de l’autre ski préférerait rester dans une autre direction. Compte tenu de leurs dimensions importantes (longueur, largeur et masses), les skis peuvent aussi agir comme un levier entraînant la jambe en rotation avec un moment de force alors important.
La diversité des mécanismes lésionnels induit une diversité de « stratégies de prévention ». Les recherches en épidémiologie parlent de facteurs prédisposant à la pathologie et les classent en deux catégories.
Malheureusement, la première catégorie est non modifiable car propre au skieur. On y retrouve des facteurs comme le sexe, les antécédents de blessures, l’âge ou certaines particularités anatomiques. Par exemple, l’hyperlaxité (élasticité excessive de certains tissus) ou la forme particulière du tibia ou du fémur jouent un rôle dans la stabilité et les contraintes ligamentaires du genou.
C’est d’ailleurs ce qui explique en partie que les femmes soient plus à risque de rupture du LCA, avec une déviation des genoux vers l’intérieur comme des jambes en X (valgus) plus marquée et une structure ligamentaire moins tolérante aux contraintes que les hommes. S’y ajoute l’influence hormonale, avec un risque qui semble évoluer en fonction des différentes phases du cycle menstruel.
Par contre, connaître cette fragilité permet d’adapter sa pratique ou son entraînement. De nouveau, l’exemple des femmes est intéressant car les skieuses de haut niveau ne présentent plus un risque accru de rupture du LCA par rapport à leurs homologues masculins. L’explication est à chercher dans la catégorie de facteurs modifiables prédisposant à la pathologie. Ils peuvent concerner le skieur lui-même, par exemple les capacités du système neuromusculaire, que ce soit la production de puissance, de résistance à la fatigue ou encore les qualités proprioceptives (la proprioception désigne la perception, par le cerveau, de la position des différentes parties du corps dans l’espace, ndlr).
Il a été montré que les qualités de production de force jouent un rôle important dans la prévention des ruptures du LCA, notamment en cas d’asymétrie importante entre les deux jambes ou de déséquilibre entre les muscles agonistes et antagonistes du genou avec une force du quadriceps supérieure aux ischio-jambiers (ratio I/Q).
D’ailleurs, les skieuses « loisirs » présentent un risque deux fois plus élevé de rupture du LCA sur leur jambe non dominante considérée comme moins forte ainsi qu’un ratio I/Q important. Des programmes de renforcement, de coordination et d’équilibre vont permettre de les améliorer, avec un focus sur le contrôle de la stabilité du genou. Cette solution est largement utilisée par les skieurs compétiteurs dans le cadre de leur entraînement. Et c’est ce qui explique en partie l’égalité de skieuses et des skieurs compétiteurs face aux lésions du LCA, les skieuses ayant corrigé les déséquilibres d’activité musculaire ratio I/Q de chaque cuisse ou entre les deux membres.
Le laboratoire LIBM que je dirige (Université Savoie Mont-Blanc) travaille activement sur la mise en place de tests originaux pour évaluer les qualités des skieurs élites.
Le skieur « loisir », et surtout la skieuse, devrait donc aussi préparer sa semaine de vacances à la neige avec un programme physique adapté les semaines précédentes ou mieux, une pratique sportive régulière mixant du cardio, du renforcement musculaire et de la proprioception.
Et si cela n’est pas fait alors que les vacances commencent, il est temps au moins de s’échauffer avant de s’élancer sur la piste : des mouvements de mobilité de toutes les articulations, des flexions de genoux lentes puis dynamiques, des fentes avant et c’est parti !
Il est également important de prendre en compte les signes de fatigue arrivant au cours de la journée de ski ou de la semaine, pour s’arrêter avant la blessure. Des muscles douloureux, raides et répondant moins bien, une diminution de l’attention, des mouvements moins fluides et des déséquilibres, voilà des signes à prendre en compte.
Un autre facteur modifiable par le skieur est son propre comportement, en choisissant une piste adaptée à son niveau et en réduisant sa vitesse pour rester maître de ses trajectoires.
Ces facteurs intrinsèques nécessitent que le skieur prenne conscience de ses capacités, de l’environnement montagnard et du matériel pour adapter son comportement : enfin un facteur qui place les skieuses en bonne position, car elles présentent significativement des comportements moins à risques que les skieurs !
Quant au matériel, il est aussi au cœur du dispositif des solutions de prévention des lésions du LCA. Il a été montré que les dimensions du ski influencent significativement les blessures, de par le levier important qu’ils induisent. Ainsi, des skis plus courts et moins larges sont moins dangereux pour les genoux.
La dernière solution, et non la moindre, concerne la fixation de ski. Sa fonction première est de maintenir le ski à la chaussure pour créer une interface ski-skieur et ainsi permettre la pratique de cette activité sportive. Mais cette fixation doit aussi être capable de se décrocher pour libérer le pied du skieur de son ski lorsque le genou est en danger. Le ski libéré ne constitue ainsi plus un levier important entraînant la jambe puis le genou en rotation ou en translation.
Pour répondre à ces fonctions opposées, les fixations abritent des ressorts mis en compression sous l’action du chaussage. En ce qui concerne le déchaussage, il sera obtenu par un mouvement de la fixation sous l’action d’un moment de force jusqu’à une position donnée.
Ainsi, régler la libération d’une fixation consiste à ajuster la compression du ressort au moment de force souhaité pour le déchaussage. Ce réglage est indiqué par une norme. La sélection d’un réglage se fait en fonction du poids du skieur et de la longueur de sa coque de chaussure de ski. Cette valeur sera ensuite adaptée de façon empirique au niveau, à l’environnement de pratique (type de neige), à la perception du skieur (engagement, peur) et, plus récemment, au sexe, en augmentant ou diminuant ce réglage. En conséquence, la détermination des forces rencontrée dans l’activité – et du réglage associé – est primordiale, tout comme le processus de déclenchement.
Or, les études épidémiologiques montrent que ce point pourrait être largement amélioré. Parmi une cohorte de 498 skieurs « loisirs » blessés au LCA, l’absence de déchaussage correspondait à 78 % des cas, et était significativement plus élevée chez les femmes que chez les hommes (83 % contre 66 %). La fréquence nettement plus faible de déchaussage des fixations chez les skieuses blessées au LCA est bien connue dans la littérature.
La piste du déchaussage semble donc être un bon moyen de prévenir les lésions du LCA chez le skieur loisir, et encore plus chez la skieuse. C’est de nouveau un des points d’attention de mon laboratoire qui travaille sur la compréhension des moments de forces lors de la pratique du ski alpin, avec un focus sur la skieuse. J’ai d’ailleurs montré que les skieuses présentaient des forces appliquées sur la fixation bien moindres que ceux des hommes, ce qui explique le non-déchaussage de leur fixation… et donc, en partie, le risque accru de lésion du LCA.
Il est par conséquent important de sensibiliser les skieurs et les skieuses au réglage adapté et sécurisant de leurs fixations, avec l’aide d’un professionnel. Ainsi, pour une skieuse, il est maintenant proposé de diminuer de 15 % la valeur des réglages par rapport à la norme ISO et de 30 %, si c’est une débutante.
En conclusion, la prévention passe par la correction des facteurs modifiables mis en cause dans les ruptures du LCA. Des solutions sont proposées, mais pas suffisamment, à en croire les données épidémiologiques qui restent élevées. Il reste encore donc du travail aux chercheurs, aux industriels, aux exploitants et aux aménageurs des stations de ski pour limiter ce risque.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
10.03.2025 à 16:21
Stéphane Grumbach, Directeur de recherche Inria, ENS de Lyon
Gary Dirks, Senior Director Global Futures Laboratory, Arizona State University
Sander van der Leeuw, Emeritus Professor of Anthropology and Sustainability, Arizona State University
L’intelligence artificielle, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?
Au moment où le président américain signait l’executive order visant à assurer la domination américaine sur l’intelligence artificielle, l’irruption du chatbot chinois DeepSeek a semé une vague de panique. Les marchés de la tech et de l’énergie ont accusé le coup, propulsant Nvidia, qui produit des composants essentiels pour l’IA, dans une chute de presque 600 milliards de dollars, la plus grande perte de l’histoire en un jour.
Il a suffit d’une innovation chinoise se revendiquant d’une plus grande frugalité, tant dans son développement que pour son fonctionnement, pour chahuter la course à l’intelligence artificielle. DeepSeek ouvre la voie pour des développements moins gourmands en calcul.
Le développement de l’intelligence artificielle et de manière plus générale de l’industrie numérique est l’une des toutes premières priorités tant pour les États-Unis que pour la Chine.
Dans la rivalité qui se joue entre les deux superpuissances, c’est une nécessité à la fois pour assurer leur sécurité intérieure et pour projeter leur puissance hors frontières. La croissance des besoins énergétiques de ces industries est donc une question secondaire, même si elle doit conduire à une augmentation de la production d’hydrocarbures. Aucune politique de réduction des émissions de gaz à effet de serre ne pourra ignorer cet ordre de priorité.
Depuis la COP de Paris, une grande publicité a été accordée à l’objectif de transition énergétique et par conséquent de réduction de l’exploitation des hydrocarbures. Pour autant leur consommation n’a cessé d’augmenter. Les États-Unis, premier producteur mondial, ont continuellement augmenté leur production depuis le mandat du président Obama.
Cette contradiction entre les politiques et les intentions est problématique. Selon le Global Carbon Project, les émissions mondiales de carbone provenant des combustibles fossiles ont atteint des niveaux record en 2023. Un rapport du Programme des Nations unies pour l’Environnement de novembre 2023 estime que les gouvernements prévoient de produire en 2030 le double des combustibles fossiles par rapport à la quantité permise pour limiter le réchauffement à 1,5 °C. Les émissions annuelles mondiales de dioxyde de carbone dépassent 40 milliards de tonnes, principalement issues des combustibles fossiles. Elles ont augmenté de 1,5 % par rapport aux niveaux prépandémiques.
Cette contradiction pourrait toutefois connaître prochainement une forme de résolution, mais dans une forme qui pourrait surprendre. Elle se fera en faveur de l’alignement des discours sur la réalité de l’augmentation des besoins énergétiques, et non l’inverse. Il ne s’agira donc pas de l’alignement des politiques sur les objectifs du développement durable. Les efforts actuels de réarmement sonnent le glas de bien des contraintes environnementales.
L’élection américaine marque un tournant clair dans le discours. Le président nouvellement élu l’a affirmé très clairement dans son adresse inaugurale. « Nous possédons quelque chose qu’aucun autre pays manufacturier n’aura jamais – la plus grande quantité de pétrole et de gaz de tous les pays du monde – et nous allons l’utiliser. »
Un certain nombre de banques avaient déjà quitté l’alliance Net Zero Banking (NZBA) avant même l’investiture, abandonnant ainsi les contraintes environnementales pesant sur leurs investissements. On peut alors s’interroger. La baisse de l’exploitation des hydrocarbures est-elle un objectif réalisable ? La rivalité des États-nations ne le favorise pas. De surcroît, il ne présente aucun intérêt propre pour aucun acteur. La bataille n’est pour autant pas perdue, mais elle doit s’adapter au réel et tirer avantage de la géopolitique au lieu de la subir. Les énergies dites vertes sont avant tout produites localement, elles doivent être promues pour leur contribution à la souveraineté.
Le débat public sur les politiques énergétiques est focalisé sur la durabilité et le changement climatique, alors que la souveraineté et la sécurité nationale restent les principaux moteurs des décisions nationales. La logique du système énergétique actuel est guidée par les enjeux géopolitiques, structurée autour du contrôle des stocks et des flux d’énergie par des mécanismes, tangibles, comme le raffinage, les oléoducs et les tankers, et intangibles, comme les marchés et les assurances.
Le numérique présente une singularité dans l’effort de transition écologique. Ses besoins énergétiques croissent à l’inverse de la plupart des secteurs engagés dans un mouvement de baisse. Ce n’est toutefois pas une anomalie. Les liens entre l’industrie numérique et les questions environnementales sont plus complexes qu’il n’y parait à première vue. La dégradation environnementale a en effet deux conséquences, la nécessaire atténuation et l’inévitable adaptation. Autrement dit, d’une part, la montée des interdépendances entre les activités humaines et l’environnement doit être prise en compte. D’autre part les risques de confrontation croissent avec les difficultés environnementales.
Le numérique est au cœur de la réponse à ces deux défis. Il permet de prendre en compte les interactions avec l’environnement, et de distribuer les ressources avec une connaissance très fine des contraintes tant locales que globales. C’est ce que les plates-formes d’intermédiation, qui orchestrent les marchés entre producteurs et consommateurs de biens ou de services, font déjà dans de nombreux domaines, avec Google, Uber, etc. Distribuer l’électricité produite et stockée par d’innombrables acteurs est impossible sans les plates-formes numériques, qui seules savent orchestrer des marchés avec une connaissance fine et continue de la situation des acteurs. Il est remarquable d’ailleurs que les grands acteurs du numérique investissent désormais directement dans le secteur de la production de l’énergie, nucléaire ou renouvelable, d’abord pour alimenter leurs centres de données, mais à terme probablement comme gestionnaire global de l’électricité.
Les plates-formes sont donc au cœur des solutions. Mais elles sont aussi des instruments de la confrontation. Si l’interconnexion de tous les acteurs de la société a permis des développements extraordinaires, la difficulté de garantir la sécurité du réseau conduit inexorablement à une militarisation de la société dans son ensemble. Les tentatives de régulation sont de peu d’impact sur cette évolution.
Le numérique est devenu après les espaces physiques que sont la terre, la mer ou l’air, l’espace où se déploient les conflits. La guerre en Ukraine en offre la première démonstration avec la généralisation des armes sans pilote, l’utilisation des cryptomonnaies, les nouveaux moyens cartographiques basés sur les smartphones. L’intelligence artificielle connaît, comme de nombreuses technologies par le passé, un développement entraîné par la défense. Il serait illusoire dans cette période de militarisation d’espérer voir la consommation énergétique du numérique baisser.
Alors que faire ? La solution pourrait être dans la recherche de souveraineté. Si la sécurité était acceptée comme l’objectif principal pour tous les États, en particulier par les principaux blocs géopolitiques, la question pourrait alors se ramener à celle de la transition vers une sécurité à long terme dans chacun d’eux. La réponse pourrait être double : construire la capacité des nations à dépendre de l’énergie produite localement, et briser les dépendances énergétiques internationales existantes. Les deux peuvent être atteints en substituant les sources d’énergie locales et les réseaux de distribution intelligents aux modèles de commerce de l’énergie à longue distance existants. Une telle transition est déjà à portée de main, le prix de l’énergie renouvelable par watt ayant considérablement diminué par rapport au prix des autres formes de production d’électricité. Il faut faire de la dure réalité de cette boucle infernale un atout et non un écueil.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.03.2025 à 09:28
Laure Tabouy, Chercheuse – chargée d'enseignement et cheffe de projet en éthique / neuroéthique. Domaine de recherche en éthique des neurosciences, des neurotechnologies, du numérique et de l’IA, Aix-Marseille Université (AMU)
Les interfaces entre cerveaux humains et ordinateurs se développent, poussées par les progrès technologiques, les avancées de l’intelligence artificielle et les promesses d’utilisations médicales. Au point de faire craindre une future commercialisation de nos pensées les plus intimes. Mais peut-on réduire nos pensées à un ensemble de données collectées par des neurotechnologies ? Est-il souhaitable que l’on puisse un jour vendre nos données cérébrales ?
Les neurotechnologies sont des dispositifs qui font l’interface entre le cerveau et des machines. Ils sont au départ élaborés à des fins médicales.
L’utilisation des neurotechnologies dans le secteur médical est aujourd’hui en voie d’être encadrée, par exemple en France, en ce qui concerne l’imagerie cérébrale, en Europe et, plus largement, dans le monde, par une éthique médicale commune. Si cet encadrement reste à approfondir, en particulier en raison de ses liens avec l’intelligence artificielle (IA), il faut souligner que les utilisateurs et leurs « données cérébrales » ne sont plus juridiquement et éthiquement protégés dans le cadre d’utilisations non médicales.
Pourtant, des neurotechnologies sont déjà commercialisées auprès du grand public en bonne santé, par exemple dans l’éducation et le bien-être, ou développées dans le cadre de projets de jeux vidéo (pour l’instant non commercialisé) et dans le domaine du travail.
De plus, ces dispositifs sont d’ores et déjà conçus pour apprendre à décrypter nos pensées — qui reste aujourd’hui un objectif à long terme. Ceci laisse craindre que la commercialisation de données cérébrales permette d’influencer, de manipuler ou d’assujettir les humains.
À lire aussi : De la télépathie à la science moderne : est-on capable de lire dans les pensées ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Certains dispositifs neurotechnologiques sont implantés directement dans le cerveau. On parle de technologies « invasives » ou d’implants cérébraux. C’est le cas par exemple des dispositifs à des fins médicales des entreprises Synchron et Precision Neurosciences.
Il existe également des neurotechnologies dites non invasives, comme des écouteurs, des lunettes ou des bandeaux. Meta, par exemple, développe un dispositif qui ne requiert pas de chirurgie mais qui reste aujourd’hui trop massif pour être déployé. Ces neurotechnologies non invasives permettent d’enregistrer des électroencéphalogrammes (EEG) — ou, dans le cas de Meta, des magnétoencéphalogrammes — ce qui permet de capter certaines ondes cérébrales qui sont ensuite numérisées, afin d’être traitées par des systèmes d’IA.
Un retour de la machine vers le cerveau de la personne, dit « neurofeedback », est possible après traitement des informations par ces systèmes d’IA.
L’étude du cerveau, dans son sens le plus large, génère des volumes considérables de données, communément appelées « données cérébrales ». Elles peuvent être moléculaires, cellulaires, génétiques, anatomiques, fonctionnelles, comportementales, computationnelles ou encore venant de l’activité neuro-électrique du cerveau (appelé aussi « rythme cérébral »).
Cette diversité de données regroupées sous le nom de « données cérébrales » n’est pas mesurable et visualisable avec les mêmes techniques, ce qui donne une diversité d’approches, de théories et de conceptions scientifiques de la pensée, qui s’entrechoquent également avec des conceptions plus philosophiques ou théologiques de la pensée, qui, elles, ne se mesurent pas.
Le concept de « vie privée mentale » n’est donc pas facile à définir, tant neuroscientifiquement que philosophiquement. La pensée humaine est et restera toujours bien plus complexe et floue que de simples réseaux de neurones visualisables, mesurables, calculables et transférables via les neurotechnologies et des systèmes d’IA.
Admettre que la pensée humaine serait assimilable au fonctionnement d’un ordinateur et donc potentiellement vendable, comme le proposent les « visionnaires transhumanistes », se poser la question de la possibilité qu’un jour nous puissions les télécharger sur un support numérique et vivre éternellement, c’est supposer — et imposer à tous — que ces données cérébrales, qui sont collectées grâce aux neurotechnologies, traitées par les systèmes d’intelligences artificielles et qui sont stockées dans des centres de données soient véritablement et intégralement nos pensées.
Cela appelle à se poser la question de ce que signifient réellement ces données cérébrales. Sont-elles suffisantes pour caractériser un être humain ?
Si toutes nos pensées, nos souvenirs, notre imagination, nos émotions, notre comportement et notre subconscient se passent dans le cerveau, si tout ce que nous pensons, sentons ou désirons ne résulte que de l’activité cérébrale de milliards de neurones, au sein de différentes aires cérébrales, qu’est-ce qui fait notre subjectivité, notre unicité, notre singularité ?
Ne serions-nous pas, ici, devant une conception matérialiste de la pensée, l’assimilant à un calcul et la considérant comme mécanisable, et donc vendable, qui reposerait sur un « réductionnisme neurobiologique » ?
C’est en tout cas à partir de ces approches neurobiologiques, devenues paradigme scientifique (à savoir « nos pensées peuvent être décrites et reproduites par l’observation de signaux neuronaux »), que les sciences cognitives, la cybernétique, l’IA et les neurosciences évoluent depuis 1943. C’est aussi selon ce paradigme qu’évolue la neuroéthique.
Aujourd’hui, c’est à cette frontière de la conscience et des pensées que se cache une porte vers notre intimité et notre liberté, vers notre humanité la plus profonde, que ces technologies nous proposent d’ouvrir. Le cerveau en est le refuge, c’est la partie privée de nous-mêmes, le point ultime de notre vie privée. Il nous faut donc nous assurer que ces connaissances sur la conscience et sur le cerveau, que ces neurotechnologies et l’IA, soient utilisées pour le bien commun, sans compromettre notre intégrité psychique, notre intimité, notre sécurité et notre liberté de pensée.
Malgré les interrogations et le flou sur ce qu’est la pensée, c’est l’ombre d’une menace « pour l’intimité psychique et la liberté de penser, mettant ainsi en danger la démocratie et la liberté politique » qui est pressentie, pour reprendre les termes de l’Unesco.
Les enjeux éthiques, juridiques et sociétaux qui se dessinent à travers cette problématique sont vertigineux.
À l’heure actuelle, parce que l’on ne connaît pas bien la signification précise des données cérébrales collectées, celles-ci ne sont pas encore légalement considérées comme des données biométriques et/ou des données sensibles.
De nombreux défis, problèmes et préoccupations entourent le développement d’un cadre de gouvernance des données cérébrales. Outre leur diversité technique, elles sont générées dans différentes juridictions : elles sont donc soumises à des principes éthiques et juridiques distincts et suscitent des préoccupations éthiques et juridiques variées. Néanmoins, vu la vitesse de déploiement de ces neurotechnologies et le caractère international des marchés, il est nécessaire de s’accorder sur plusieurs niveaux géographiques (pays, Europe et international) et dans un laps de temps restreint.
Si un consensus n’est pas encore réellement trouvé par les chercheurs engagés dans ces réflexions, ceux-ci préconisent d’ores et déjà un examen contextuel de la gouvernance des données cérébrales prenant en compte les spécificités des cultures, des pays…
Un travail international sur les enjeux éthiques des neurotechnologies a été initié par l’Unesco en mai 2024. Il s’achèvera en novembre 2025 par la proposition d’un cadre éthique mondial pour les neurotechnologies.
Cette future recommandation doit s’inscrire dans la continuité des travaux menés en 2021 et en 2023 sur les implications éthiques des neurotechnologies. Ces travaux ont souligné la nécessité d’une recommandation éthique et d’un cadre de gouvernance mondiale solide, flexible et évolutif, permettant d’assurer la protection des droits humains et des libertés fondamentales. Le rapport de 2021 identifiait les menaces que les neurotechnologies faisaient peser sur les droits et les libertés fondamentales, comme l’intégrité personnelle et psychique. Tandis que le rapport de 2023 a montré que le rythme de l’innovation dans ce domaine des neurotechnologies s’était accéléré avec l’utilisation et la convergence avec l’IA et l’IA générative.
Ce travail de l’Unesco est complété par celui de l’OCDE. En parallèle des travaux de ces instances internationales, de récentes études de chercheurs mettent en lumière plusieurs considérations essentielles qui nécessitent un examen approfondi pour faire progresser les réflexions, dont une évaluation des risques, nécessaire et indispensable, car les données collectées au moyen des neurotechnologies peuvent être des données qui, d’une manière ou d’une autre, seraient liées à la conscience, aux pensées et aux souvenirs.
Laure Tabouy est membre de la société des neurosciences et de la société internationale de neuroéthique