ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
19.03.2025 à 12:30
Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Texte intégral (4583 mots)
Edith Heard est biologiste et directrice générale de l’European Molecular Biology Laboratory (EMBL) et professeur au Collège de France. Elle a reçu la médaille d’or du CNRS en 2024 pour ses travaux sur l’épigénétique et l’inactivation du chromosome X.
Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, reviennent avec elle sur sa carrière, depuis sa thèse jusqu’à son rôle de dirigeante, qu’elle exerce avec une passion intacte, pour comprendre l’importance de la recherche en épigénétique sur la santé des femmes et décrypter les fausses croyances qui entourent sa discipline.
Quelle est la différence entre génétique et épigénétique ?
Edith Heard : L’épigénétique est à la fois un concept ancien et une discipline très récente. Au moment où les lois de la génétique et de l’hérédité ont été découvertes, ou plutôt redécouvertes, au début du XXe siècle, des scientifiques s’intéressaient à l’embryologie et au développement. Ils ont réalisé que l’hérédité des caractères avait un lien avec la manière dont un organisme se développe.
En 1942, Conrad Hal Waddington, généticien et embryologiste britannique, a décidé de créer le mot « épigénétique ». C’est une fusion entre génétique et épigenèse qui était le mot utilisé par le médecin anglais William Harvey au XVIIe siècle pour décrire le concept de développement d’un être vivant : de la simplicité à la complexité.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Depuis, la notion a évolué. Dans les années 1970, différents chercheurs, tels que Robin Holliday et Arthur Riggs, ont commencé à étudier une modification de l’ADN : la méthylation (processus par lequel certaines bases nucléotidiques peuvent être modifiées par l’addition d’un groupe méthyle, CH3).
Ils se sont demandé si cette marque pouvait être à la base du fait qu’une cellule est capable de maintenir certains caractères au cours de sa vie et lors des divisions. Dans un organisme, l’ADN est toujours le même, quelle que soit la cellule (à de rares exceptions près). Ce qui change, ce sont les gènes qui vont être différemment exprimés selon le type cellulaire, et ces différences sont maintenues de manière stable dans le temps. Holliday et Riggs ont postulé (indépendamment l’un de l’autre) que la méthylation de l’ADN pourrait jouer un rôle dans cette expression différentielle et son maintien.
Ainsi est née la deuxième définition de l’épigénétique qui désigne « tout changement d’expression génique stable et héritable, au cours de divisions cellulaires, mais qui n’implique pas un changement au niveau de sa séquence ».
Et vous, sur un plan plus personnel, quand avez-vous découvert cette discipline ?
E. H. : Pendant ma thèse en Angleterre à la fin des années 1980, je travaillais sur les cellules cancéreuses et, plus particulièrement, sur un phénomène qui s’appelle l’amplification génique. Lors de cancers, certains gènes vont connaître une amplification en nombre : normalement on n’a que deux copies d’un gène dans une cellule mais, dans le cancer, certains gènes sont présents dans des centaines, voire des milliers de copies. Certains de ces gènes agissent comme un accélérateur du cancer, d’où la pression de sélection pour les amplifier. Ce type de changement est symptomatique de l’instabilité génétique qui caractérise les cellules cancéreuses. Par ailleurs, maintenant nous savons que beaucoup de tumeurs montrent aussi une instabilité épigénétique !
Pour mon projet de thèse, je cherchais à comprendre ce processus d’amplification : comment l’ADN peut-il commencer à s’amplifier dans certaines régions ? Et quelle est l’organisation de ces régions amplifiées ? En travaillant sur ce sujet, j’ai réalisé que les génomes des cellules cancéreuses sont extrêmement remaniés et difficiles à étudier. Et pour ajouter de la complexité, il fallait que j’utilise des techniques de l’époque pour cartographier la région amplifiée du génome que j’étudiais.
Aujourd’hui, on pourrait tout séquencer avec une machine et connaître les séquences très facilement. Si je les avais faits de nos jours, j’aurais pu réaliser la plupart de mes travaux de thèse en une ou deux semaines, alors que cela m’a pris quatre ans ! À l’époque, on coupait l’ADN par des enzymes de restriction. Ce sont des protéines qui identifient des séquences dans l’ADN et qui peuvent les couper spécifiquement. En découpant le génome avec différentes enzymes, on pouvait cartographier un génome entier ou une région. J’utilisais ces enzymes, mais il se trouve qu’elles sont sensibles aux marques épigénétiques comme la méthylation de l’ADN : quand l’ADN est méthylé, l’enzyme ne coupe pas.
C’était un problème pour mon projet, puisqu’il fallait que je coupe l’ADN des cellules cancéreuses que j’étudiais pour mieux le caractériser. Je me suis donc mise à étudier la littérature scientifique sur la méthylation de l’ADN et sur les méthodes pour la rendre réversible. Il se trouve que certains agents chimiques (comme la 5-azacytidine) peuvent conduire à l’effacement de cette méthylation. La 5-azaC est utilisée en clinique pour traiter certains cancers du sang.
J’ai pu démontrer, pendant mes recherches de thèse, qu’après traitement des cellules avec la 5-azaC, je pouvais couper mon ADN complètement et l’analyser. C’est le premier papier que j’ai publié dans lequel j’expliquais cette méthode.
Plus tard, quand j’ai dû choisir un sujet de postdoctorat, j’ai parlé avec des scientifiques de mon intérêt pour l’épigénétique et ils ont pointé un sujet qui n’était pas encore très connu : l’inactivation du chromosome X. C’est un phénomène épigénétique qui touche un chromosome entier chez les femmes. Un des deux chromosomes X est inactivé. En 1990, j’ai commencé à travailler là-dessus et je suis devenue une spécialiste de l’épigénétique à partir de ce moment-là.
Pourquoi, chez les femmes, un des deux chromosomes X doit-il être désactivé ?
E. H. : Chez les femmes, il y a deux chromosomes X. Chez les hommes, il y a un X et un Y. Au cours de l’évolution, petit à petit, le Y est devenu de plus en plus petit et contient donc beaucoup moins de gènes. Par contre, le chromosome X est l’un des plus grands et compte plus de 1 000 gènes. Avoir deux X chez les femelles et un seul chez les mâles, c’est un énorme déséquilibre. On pense que ce processus d’inactivation du X a évolué pour redresser ce déséquilibre.
Dans un embryon, si un des deux chromosomes X n’est pas inactivé, il meurt très tôt. Une double dose de certaines protéines produites par les gènes de ce chromosome est certainement létale. Quand un X est inactivé, presque tous les gènes deviennent réprimés ou silencieux, ils ne sont pas exprimés. L’ADN est toujours là, mais les gènes ne sont plus exprimés et cet état est maintenu au fil des divisions cellulaires grâce à des marques épigénétiques comme la méthylation de l’ADN.
Est-ce que c’est toujours le même chromosome X qui est désactivé ?
E. H. : Au tout début du développement de l’embryon, les deux X sont actifs, ce n’est qu’au stade où l’on compte une centaine de cellules que l’inactivation a lieu. Le choix est fait d’inactiver soit le X paternel, soit le X maternel. Une fois que ce choix est fait dans une cellule, il est maintenu grâce aux mécanismes épigénétiques. En revanche, toutes les cellules n’inactivent pas le même X.
C’est pour cela que les femmes sont constituées d’une mosaïque de cellules où il y a soit le X paternel, soit le X maternel exprimé. En général, environ 50 % des cellules expriment un X maternel et 50 % un X paternel, et cette décision est stable au cours de la vie de la cellule et lorsqu’elle se divise.
Quels ont été vos apports scientifiques dans la compréhension de ce processus ?
E. H. : Quand j’ai commencé mon postdoc en 1990, on venait de découvrir un gène, présent sur le chromosome X, qui produit un ARN qui est à la base de la mise en place de l’inactivation du X. C’est le gène Xist. On ignorait cependant comment il était régulé, c’est-à-dire quand et comment cet ARN est-il produit à partir d’un chromosome X, seulement et uniquement, dans les cellules XX.
Ce mécanisme de régulation de Xist est très particulier. Quand il y a un seul X dans la cellule, le gène Xist ne s’exprime pas. S’il y en a deux, une des deux copies va s’exprimer de manière aléatoire.
Mon premier projet a été de comprendre la régulation de ce gène en étudiant son paysage génomique : j’y ai consacré les dix premières années de ma carrière, car la région qui est nécessaire et suffisante pour son profil d’expression est grande et complexe. Puis j’ai cherché à comprendre comment l’ARN produit par le gène Xist agit pour déclencher l’inactivation du X. Mon équipe de recherche a montré qu’une protéine, appelée SPEN, qui s’associe avec cet ARN est capable d’inactiver tous les gènes d’un chromosome X.
Aujourd’hui, on essaie de comprendre comment cette protéine agit pour réprimer un gène. On pense qu’elle interfère avec le processus d’expression lui-même, c’est-à-dire avec la possibilité qu’ont les gènes d’être transcrits en un ARN qui sera ensuite traduit en protéine. Pour réprimer les gènes, il faut empêcher cette transcription vers un ARN. Cette protéine SPEN est capable de perturber la transcription de ces gènes probablement par plusieurs mécanismes avec ses multiples partenaires que nous avons identifiés.
Comment une cellule peut-elle savoir qu’elle compte deux chromosomes X ?
E. H. : Ça reste une des grandes questions dans le domaine ! Il y a un dialogue, qui, je dois le dire, reste encore assez mystérieux, entre les chromosomes. Mon labo a travaillé pendant pas mal d’années sur ce mécanisme.
À un moment, on pensait qu’il y avait une reconnaissance physique : qu’ils entraient en contact. On avait découvert, en regardant les cellules in vivo par microscopie avec des marqueurs fluorescents, que les deux chromosomes X dans une cellule s’associent transitoirement — justement au niveau du gène Xist — et qu’après cette rencontre, en se séparant, il y a un X qui va exprimer Xist et l’autre pas.
C’était une très belle hypothèse, mais le problème c’est qu’ensuite, on l’a testée en utilisant un système qui nous permettait d’accrocher les deux chromosomes X à la périphérie du noyau de la cellule pour empêcher l’interaction. Et on a montré que tout se passait normalement, avec un seul X qui exprime Xist et l’autre pas. Donc on a prouvé que cet appariement physique n’a pas de rôle dans le choix du X à inactiver, ni dans le comptage des chromosomes. C’était une déception, car c’était une hypothèse sur laquelle on avait travaillé pendant plusieurs années. Mais c’est ça, la science : on a testé notre propre hypothèse et on l’a tuée !
Il y a eu d’autres études, pas dans mon laboratoire cette fois, qui ont montré qu’à côté du gène Xist, il y a un gène responsable de la production d’une protéine appelée RLIM, ou RNF12. Il a été montré qu’une double dose de cette protéine RLIM est la manière par laquelle la cellule reconnaît qu’elle a plus d’un chromosome X. Par contre, on ne sait toujours pas comment la cellule choisit d’inactiver l’un ou l’autre des X.
Quelles sont les conséquences de cette inactivation du X ?
E. H. : Le chromosome X est très connu dans l’étude des maladies génétiques, et cela pour une raison simple : c’est que les hommes n’ont qu’une seule copie. Pour eux, quand il y a une mutation dans un gène du X, ça se voit tout de suite parce qu’il n’y a pas d’autre copie pour la masquer. Beaucoup de maladies sont liées à l’X, y compris la dystrophie musculaire, l’hémophilie, des problèmes neurologiques ou des maladies du système immunitaire.
Chez les femmes, il y a deux versions, ou allèles, des gènes situés sur les chromosomes X, et toutes les cellules ne vont pas exprimer la même à cause de l’inactivation de l’un ou l’autre X. Cela explique que les femmes sont moins touchées que les hommes par ces pathologies. Il y a plusieurs types de maladies qui se retrouvent beaucoup plus fréquemment chez les hommes que chez les femmes. La dystrophie musculaire, par exemple, qui touche surtout les hommes.
Il y a donc des maladies liées à l’X qui impactent moins les femmes, mais il y a un processus biologique important à noter : on observe que certains des gènes, qui étaient silencieux sur le chromosome X inactif, peuvent se réactiver. Dans ces cas-là, on peut se retrouver dans une situation où cette réactivation donne une double dose de protéine, ce qui peut avoir un effet nocif. Un des exemples les plus connus, c’est le gène qui code pour la protéine appelée TLR7, qui est impliquée dans le système immunitaire. On sait qu’une double dose de cette protéine peut donner lieu à des maladies auto-immunes, comme le lupus. On peut penser que c’est la raison qui explique que les maladies auto-immunes sont beaucoup plus fréquentes chez les femmes que les hommes.
À l’inverse, si cette réactivation touche des gènes dits suppresseurs de tumeur, alors ce mécanisme est bénéfique et pourrait avoir un effet protecteur. C’est une hypothèse qui expliquerait que les femmes sont moins touchées par certains cancers, comme celui du foie.
Plusieurs laboratoires, y compris le nôtre, s’intéressent à cette thématique de recherche.
On voit à quel point c’est une régulation très fine et qu’il peut y avoir des avantages ou des désavantages…
E. H. : Exactement. Je dis toujours que chaque gène raconte toute une histoire. Le X est un chromosome qui porte plus de 1 000 gènes. Chacun d’entre eux peut avoir un effet différent, et pas forcément le même à tous les stades de la vie. Il y a certains gènes qui peuvent avoir un effet très frappant à certaines étapes du développement ou dans certains organes ; puis, lors d’autres étapes, ou dans d’autres organes, n’avoir aucun effet.
C’est pour cela que chaque gène (et son profil d’expression sur le X actif ou inactif) mérite d’être étudié individuellement. Jusqu’à récemment, on n’avait pas les outils pour le faire. Mais on a maintenant de plus en plus de moyens pour analyser très finement le taux d’expression d’un gène spécifique et comprendre l’impact d’une double ou d’une simple dose. Ce n’est qu’avec ces connaissances fines que l’on pourra réellement comprendre l’importance de cette inactivation du X.
Ces modifications épigénétiques sont-elles transmises à la descendance ?
E. H. : Chez les mammifères, il y a un effacement des marques épigénétiques qui a lieu au cours de la formation de la lignée germinale (la production des spermatozoïdes ou des ovules). On a constaté que l’épigénome change massivement pour effacer les marques telles que la méthylation de l’ADN. Il y a donc une première reprogrammation.
Ensuite, il y a une deuxième phase d’effacement au moment de la fécondation, parce que le spermatozoïde et l’ovocyte sont des cellules très différenciées : elles ont beaucoup de caractères spécifiques que l’on ne retrouve pas dans d’autres cellules. Dans l’ovocyte fécondé, il faut donc enlever ces caractères des deux côtés, pour créer un embryon « totipotent » – c’est-à-dire, qui peut se développer pour former tout un organisme.
Au moment de la fécondation, il y a donc une deuxième phase de reprogrammation qui efface la plupart des marques épigénétiques et très peu de régions du génome gardent ou maintiennent un état épigénétique qui vient du parent. Ces quelques régions (environ 100) qui gardent leur état, on les qualifie de « soumises à l’empreinte génomique ». Elles héritent d’un état réprimé d’un parent grâce à des marques épigénétiques. Un dérèglement de ce processus peut perturber l’équilibre d’expression de multiples gènes d’une région, conduisant à l’apparition de certaines maladies spécifiques. Mais les régions soumises à l’empreinte sont l’exception à la règle de « tabula rasa », qui efface les marques épigénétiques au moment de la fécondation. Donc il y a très peu de mémoire cellulaire à travers les générations chez les mammifères.
Quelles peuvent être les applications de l’épigénétique ? Existe-t-il des « épimédicaments » ?
E. H. : Tout à fait, on l’a évoqué au début de cet entretien avec la 5-azacytidine, qui est capable de conduire à la perte des marques épigénétiques de méthylation de l’ADN. Elle est utilisée en clinique depuis des décennies, sans que l’on comprenne son mode de fonctionnement précis, ni sur quels gènes spécifiques elle a un effet. On savait que chez des patients atteints de dysplasie myéloïde (maladie causant une production insuffisante de cellules sanguines saines par la moelle osseuse) cette drogue pouvait ralentir l’apparition d’une leucémie.
Des études ont montré que le traitement des cellules cancéreuses peut être affecté par ces épidrogues. En clinique, de nouvelles épidrogues sont testées, mais ce n’est plus vraiment mon domaine. Par exemple, il y a des études qui suggèrent qu’un traitement par immunothérapie combiné à un usage d’épidrogues peut être plus efficace pour le traitement du cancer du poumon. Les épidrogues seules n’ont pas montré beaucoup de succès, mais la combinaison avec une immunothérapie peut avoir un impact.
Au-delà de ces applications, le terme « épigénétique » est devenu à la mode et est présenté comme une méthode miracle, que faut-il en penser ?
E. H. : Je dirais que l’épigénétique est à la mode depuis les années 2000, au moment du séquençage du génome humain. On commençait à comprendre quelles parties du génome étaient modifiées ou pas, et ça donnait peut-être l’espoir que les marques épigénétiques pouvaient changer la « finalité » des gènes dont on hérite. Si on peut réprimer ou activer des gènes par les modifications épigénétiques, peut-être que l’on peut changer notre « destin génétique ». C’est ça qui fait rêver ou fantasmer les gens.
Il y a beaucoup de bruit autour du fait que des changements de notre environnement, comme notre nutrition par exemple, pourraient changer notre épigénome. C’est évident que, si on subit un évènement extrême, que ce soit un choc thermique ou une malnutrition, qu’il s’agisse d’un adulte, d’un fœtus ou même d’une cellule, on change l’expression de nos gènes. Est-ce que c’est de l’épigénétique ? Pour moi, non. Je pense qu’il y a beaucoup de mauvaises informations qui sont propagées. Les changements épigénétiques peuvent avoir un lien avec l’activité des gènes, mais de là à dire que l’on va traiter des gens ou mesurer leur état de santé par les marques épigénétiques, je pense que ce n’est pas vrai, car on ne comprend pas assez ces phénomènes.
On entend également parler de liens entre l’épigénétique et le vieillissement cellulaire…
E. H. : Oui, beaucoup de recherches sont menées sur les manières de rajeunir les cellules. Est-ce que les marques épigénétiques jouent un rôle ? Je pense que ça reste totalement ouvert. On ne sait pas si les changements épigénétiques que l’on observe avec l’âge sont une cause ou une conséquence du vieillissement. Pour le moment, il y a une corrélation dans certains cas, mais, pour moi, il n’y a aucune donnée qui montre de manière définitive qu’un changement épigénétique est le déclencheur du vieillissement. Mais bon, peut-être que j’ai tort et qu’on va trouver le facteur, ou la modification, épigénétique qui fait rajeunir, ce serait super, mais je n’y crois pas.
Quels sont les grands sujets que vous allez suivre à l’avenir ?
E. H. : Je dirais d’abord qu’étudier l’inactivation du X est très important pour comprendre la biologie et, même, la santé des femmes. On sait qu’il y a des gènes sur le X qui peuvent donner lieu, comme on en a parlé, à une protection ou, au contraire, à une prédisposition à certaines maladies. Ces sujets de santé de la femme restent très peu étudiés pour des raisons historiques, et je pense qu’il est primordial de s’y pencher très sérieusement.
Un autre grand sujet, selon moi, porte sur la compréhension des organismes dans le contexte de l’environnement (que ce soit en lien avec l’épigénétique, ou pas). En tant que directrice générale de l’EMBL, j’ai mis en place un programme qui vise à comprendre le vivant dans son contexte naturel, parce que beaucoup de travaux en sciences de la vie se passent au laboratoire, et c’est normal parce qu’on veut contrôler les conditions de nos expérimentations. Mais, dans la réalité, le vivant n’évolue pas dans un contexte stérile et homogène. Donc, pour moi, c’est le grand défi : passer de l’échelle d’un individu, que ce soit un microbe ou un mammifère, isolé dans un laboratoire, à l’échelle d’une communauté ou d’une population, dans un écosystème. Si l’unité de l’organisme vivant est la cellule, l’unité de la vie sur notre planète est l’écosystème.
Maintenant que l’on a compris beaucoup de choses sur les bases moléculaires et cellulaires du vivant, il faut les transposer dans un contexte naturel. Prenons l’exemple de l’humain, avec, par exemple, la pandémie de Covid-19 qui nous a frappés : pourquoi, dans certaines populations, le virus avait-il plus d’effets et, dans d’autres, moins ? Si on veut vraiment comprendre le vivant, il faut sortir de nos laboratoires !
Comment jugez-vous la situation de la recherche aux États-Unis ? Craignez-vous une baisse de financement pour les recherches menées sur la santé des femmes ?
E. H. : Je voudrais dire que je crois que la science ouverte, les approches collaboratives et la collaboration internationale sont essentielles pour la recherche mondiale. La science repose sur la poursuite de la connaissance et s’appuie sur des efforts coordonnés et conjoints pour produire des idées de rupture et des solutions innovantes. Les défis mondiaux, tels que la santé publique, mais aussi le changement climatique ou la sécurité alimentaire, ne peuvent être relevés que par une communauté scientifique internationale fortement connectée.
J’ai bien sûr de nombreux contacts personnels avec des chercheurs et des institutions aux États-Unis et, pour avoir échangé avec des membres de la communauté scientifique dans de nombreux pays, je sais qu’il y a beaucoup de préoccupations et d’inquiétudes. La recherche sur la santé des femmes est un domaine important, mais il y en a bien sûr beaucoup d’autres, tous porteurs de découvertes importantes qui stimulent les progrès nécessaires pour relever les défis auxquels le monde est confronté.

Edith Heard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.03.2025 à 16:30
Quand les IA font des rapprochements trompeurs
Texte intégral (1952 mots)

Connaissez-vous les « corrélations fallacieuses » ? Si les humains apprennent à ne pas se laisser berner par ces liens logiques apparents, les IA ont plus de mal.
Et si les ventes de dictionnaires en Allemagne étaient liées au nombre d’inscriptions à des cours de natation au Japon ? Et si la production d’énergie solaire à Taïwan influençait le cours en bourse de Netflix ?
On apprend très tôt qu’il y a une distinction entre corrélation et causalité : un lien n’explique toujours pas une cause. Notre cerveau cherche malgré tout un sens et des explications logiques lorsqu’il analyse des données : des lignes qui suivent la même inclinaison, des barres qui s’élèvent ensemble, ou encore des points qui se regroupent dans un diagramme. Instinctivement, il semble peu probable que la consommation de chocolat par habitant d’un pays soit corrélée au nombre de ses lauréats du prix Nobel : il s’agit là d’une « corrélation fallacieuse ».
Une équipe de recherche d’Apple a publié en septembre 2024 un article illustrant comment une banale modification de prénoms ou d’attributs des personnages d’un énoncé mathématique diminuait jusqu’à 10 % la part de réponses correctes fournies par diverses intelligences artificielles génératives. Ces liens, apparemment logiques, entraînent des corrélations fallacieuses. Imaginez un peu demander à une IA : « Adam a une pomme et Eve en a deux, combien ont-ils de pommes ? », puis lui demander ensuite : « Ada a une pomme et Evan en a deux, combien ont-ils de pommes ? » et obtenir des réponses différentes ! Pour un enfant, il parait clair que la présence d’Adam plutôt qu’Ada dans l’énoncé du problème ne change pas la réponse. Pour une IA, ce n’est pas si simple.
Comment se fait-il que nous arrivions à comprendre instantanément qu’il s’agit là de corrélations fallacieuses, là où les IA peuvent manifestement se laissent berner ?
Ce problème n’est pas anecdotique, puisque certains types d’IA sujettes à ces méprises logiques sont utilisés pour des systèmes critiques de sécurité informatique. Elles sont vulnérables à un type d’attaque appelé parfois apprentissage antagoniste ou « adversarial attacks ».
Pour pallier ce problème, les chercheurs développent des méthodes qui permettent de corriger les processus d’apprentissage des IA en identifiant les caractéristiques parasites qui mènent à des corrélations fallacieuses.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Comment les IA de type « GPT » apprennent-elles des corrélations fallacieuses ?
Pour comprendre comment les « GPT », ces IA qui semblent si prometteuses, se prennent les pieds dans le tapis des corrélations fallacieuses, il faut comprendre comment elles fonctionnent.
Parmi les modèles évalués dans la publication de septembre 2024 d’Apple, il y a GPT-4o, alors dernière création de la société OpenAI. Derrière le succès du GPT-4o, il y a un réseau de neurones Transformeur-Génératif-Pré-entraîné (les fameux GPT).
Génératif car il vise à générer du texte, préentraîné car il peut être réentraîné pour traiter des corpus documentaires spécialisés : contrats, composition mathématique ou analyse de code logiciel par exemple.
Les GPT appartiennent une plus grande famille de modèles appelés grands modèles de langage (LLM pour Large Language Model). Les LLM ont contribué à transformer les interactions humain-machines. Ils permettent à l’utilisateur d’interagir avec la machine via des instructions en langage naturel, appelées « prompts ». Ainsi, « écris-moi un article pour The Conversation sur le thème de l’IA Générative » est une instruction valide. En retour, le LLM répondra lui aussi en langage naturel, mais l’article en question ne serait pas publié car cela serait contraire à la charte éditoriale de The Conversation !
Pour préentraîner, les modèles, les chercheurs d’OpenIA ont utilisé un jeu de séquences de texte (de l’ordre du trillion de mots). Puis, à la manière d’un jeu de devinette, le transformeur doit analyser les séquences dont une partie est masquée, et prédire le contenu manquant. À chaque essai, les paramètres du modèle sont réajustés pour corriger la prédiction, c’est l’apprentissage.
Après l’entraînement, les paramètres appris permettent de représenter numériquement les relations sémantiques entre les mots (c’est le modèle de langage). Pour répondre à un utilisateur (c’est l’inférence), c’est le même processus : analyser la séquence (le prompt), prédire le mot suivant, puis le suivant, puis le suivant, etc.
Pour un utilisateur étranger au mécanisme à l’œuvre, le résultat sera bluffant, mais une fois encore, il ne s’agit que d’intelligence simulée par une machine. La syntaxe semble exacte, le raisonnement logique, les applications infinies : mathématiques, littérature, histoire ou géographie. Il ne faudra pas longtemps pour que les LLM se mettent à générer les copies des élèves, les mémoires des étudiants, ou soulager les chercheurs dans l’exécution de tâches fastidieuses.
Pourquoi est-ce dangereux en pratique ?
S’il existe des liens fallacieux dans les séquences d’entraînement, ces derniers seront intégrés lors de la phase d’apprentissage et régénérés dans la phase d’inférence. Ce phénomène de « corrélation fallacieuse » ne concerne pas que les LLM, mais plus globalement les réseaux de neurones profonds utilisant de grandes quantités de données à l’entraînement.
Dans le domaine de la sécurité informatique, des chercheurs avaient déjà alerté en janvier 2024 sur des symptômes similaires pour des LLM spécialisés dans la recherche de vulnérabilités logicielles : leur recherche montre comment une modification des noms de variables, pourtant sans impact sur la logique du code analysé, vient affecter jusqu’à 11 % la capacité du modèle à correctement identifier du code vulnérable. Tout comme dans le cas d’une modification des prénoms dans l’énoncé du problème mathématique des pommes ci-dessus, l’un des LLM audités a par exemple appris à associer les fonctions faisant appel à des variables nommées « maVariable » (souvent donné dans les exemples adressés aux débutants) et leur vulnérabilité. Pourtant, il n’existe aucune relation de cause à effet entre le nom de cette variable et la sûreté du logiciel. La corrélation est fallacieuse.
Ces LLM sont aujourd’hui utilisés dans les entreprises pour relire le code écrit par des développeurs, supposés garantir la détection des bugs logiciels. Les IA permettent d’identifier les vulnérabilités ou les comportements malveillants en sécurité informatique, ce travail d’analyse est donc crucial. Sans cela, un attaquant subtil pourrait profiler le système de détection pour identifier ces biais, le manipuler et jouer sur ces derniers pour le contourner.
C’est pourquoi, à l’instar des travaux sur l’analyse de code source, nous sommes en train d’explorer l’application des méthodes d’inférence causale pour améliorer la robustesse des réseaux de neurones utilisés par les systèmes de détection d’intrusions dans les réseaux informatiques.
Les travaux de Judea Pearl, prix Turing d’Informatique 2011, indiquent en effet que sous certaines conditions, il est possible de distinguer les corrélations probablement issues d’une relation causale de celles qui sont fallacieuses.
En travaillant sur un système de détection d’intrusions, outil qui surveille le trafic réseau pour détecter des activités suspectes, il est possible d’identifier les corrélations qui pourraient être à l’origine de biais. Nous pouvons ensuite les perturber (à l’instar d’un changement de prénom) et entraîner à nouveau le modèle de détection. Mathématiquement, la corrélation fallacieuse se retrouve marginalisée dans la masse d’exemples perturbés et le nouveau modèle est dé-biaisé.
L’IA est un outil, ne le laissons pas penser à notre place !
Qu’elles soient génératives ou non, les IA ayant appris des corrélations fallacieuses exposent leurs utilisateurs à des biais plus ou moins importants. Si les corrélations fallacieuses peuvent apparaître amusantes de par leur absurdité, elles peuvent également être source de discriminations.
Plus globalement, les récentes avancées en apprentissage profond, qui vont bien au-delà des IA génératives, bénéficient et vont bénéficier à de nombreux domaines, dont la sécurité informatique.
Néanmoins, bien que prometteuses, ces IA doivent être reconsidérées à leur juste place : elles peuvent certes permettre d’augmenter les capacités d’expertise, mais aussi induire des aveuglements dont les conséquences peuvent être dramatiques si l’on en vient à déléguer notre capacité de penser à des algorithmes.
Ainsi, il convient de nous éduquer au fonctionnement de ces systèmes — et à leurs limites — pour ne pas les suivre aveuglément. Le problème n’est pas tant l’absurdité d’un changement de prénom provoquant une baisse de performance, que le crédit que nous pouvons accorder au contenu généré par une IA.

Pierre-Emmanuel Arduin est membre de l'association française pour l'intelligence artificielle (AFIA).
Myriam Merad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2025 à 16:14
Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs
Texte intégral (2614 mots)
En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.
Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.
Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.
La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?
La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.
Évolution des coûts
La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.
Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.
Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.
À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le coût de l’IA générative
L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.
Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.
Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).
Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.
Des alternatives plus petites et moins chères
Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.

En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.
À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.
Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.
Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.
Que fait Microsoft ?
Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.
Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.
Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.
Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.
Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.
Pousser les coûts vers l’utilisateur final
Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.
Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.
Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.

Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.
Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.
À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.

Kevin Witzenberger a reçu des financements du Australian Research Council.
Michael Richardson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2025 à 15:14
Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse
Texte intégral (2158 mots)
Stocker des données dans le cloud est désormais routinier, tant pour les particuliers que pour les entreprises, mais les risques de cybersécurité existent encore, notamment dans la gestion de l’authentification de l’utilisateur et le contrôle d’accès.
Les chercheurs développent de nouvelles méthodes afin d’assurer un stockage sûr, qui ne soit pas trop gourmand en énergie, et qui permette une exploitation efficace des données. Pour cela, ils proposent notamment d’effectuer les calculs directement sur des données cryptées.
En raison de la quantité énorme de données sensibles conservées en ligne, les systèmes de cloud sont devenus un outil indispensable aux opérations commerciales modernes, mais également une cible significative de cyberattaques. À l’heure actuelle, plus de 90 % des organisations s’appuient sur les services de clouds pour des opérations essentielles, et il y a plus de 3,6 milliards d’utilisateurs actifs dans le monde — ce qui signifie que 47 % de la population mondiale recourt aux services de clouds. La dépendance à leur égard est donc généralisée.
Malheureusement, cet usage intensif implique des risques accrus. Les violations de données s’accroissent, tant par leur fréquence que par leur gravité, et 44 % des entreprises ont fait part de failles dans leur environnement cloud. 14 % d’entre elles avaient connu une violation de données au cours des douze derniers mois.
Alors que les organisations transfèrent de plus en plus de données sensibles sur un cloud (près de la moitié des informations stockées sont considérées comme sensibles), la surface vulnérable aux attaques s’accroît pour les cybercriminels. Par conséquent, les incidents sont plus fréquents et à plus haut risque, puisque la perte d’informations sensibles peut avoir des effets importants, tant sur le plan financier que sur le plan de la réputation. Le coût moyen mondial d’une violation de données en 2024 était estimé à 4,88 millions de dollars.
Aujourd’hui, ce qu’on appelle le « chiffrement coté client » permet de préserver efficacement la sécurité des données et leur confidentialité. Cependant, pour que des données chiffrées soient utiles, il faut pouvoir s’en servir en toute sécurité — les exploiter en faisant des calculs, par exemple. Pour cela, il reste encore un long chemin à parcourir, car nous faisons encore face à de gros problèmes de performance et de mise à l’échelle. Les chercheurs continuent de chercher les moyens de combler cette défaillance, afin de permettre un usage massif de ces données qui soit respectueux de la confidentialité, plus efficace et accessible à des applications à grande échelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les causes profondes des incidents de sécurité sur le cloud
L’authentification utilisateur et le contrôle d’accès sont parmi les mécanismes essentiels permettant d’éviter les violations de données.
L’authentification utilisateur est la procédure de vérification de l’identité des utilisateurs tentant d’accéder à des ressources sur le cloud. Elle constitue la première ligne de défense, mais elle est largement considérée comme le maillon le plus faible de la chaîne de sécurité : en effet, on estime que 81 % des violations effectuées par des hackers s’appuient sur des mots de passe volés ou faibles. Même si l’authentification utilisateur a beaucoup évolué au cours des dernières années, les attaques destinées à compromettre la procédure ont suivi le mouvement.
Le contrôle d’accès — qui consiste à réguler qui peut visualiser, utiliser ou interagir avec les ressources du cloud, que ce soient des données, des applications ou des services — est la deuxième ligne de défense. Un contrôle d’accès efficace garantit que seuls les utilisateurs ou appareils autorisés disposent des permissions indispensables pour accéder et modifier certaines ressources, ce qui minimise les risques de sécurité et évite l’accès non autorisé à ou l’utilisation frauduleuse du cloud.
Dans les environnements cloud d’aujourd’hui, ce sont les serveurs qui assurent le contrôle d’accès et en sont responsables techniquement. Ainsi, une configuration défectueuse, qu’elle soit due à une erreur humaine ou à un bug logiciel, tout comme une cyberattaque sur les serveurs, peut aboutir à des incidents graves. De fait, la NSA (National Security Agency des États-Unis) considère le défaut de configuration comme l’une des vulnérabilités principales d’un environnement cloud.
Le chiffrement côté client permet de stocker des données de façon sûre
Les données peuvent être chiffrées et déchiffrées sur les appareils de l’utilisateur avant d’être transférées sur le cloud. De cette façon, les données sont cryptées pendant les phases de transit et de stockage et donc inaccessibles à toute personne ne possédant pas les clés de décryptage, y compris les fournisseurs de services et les potentiels cyberattaquants. Tant que les clés de décryptage restent sécurisées chez l’utilisateur final, la sécurité et la confidentialité des données peuvent être assurées même en cas de compromission du compte utilisateur sur le cloud ou du serveur cloud lui-même.
Les solutions de chiffrement côté client utilisent soit des clés de chiffrement privées, soit des clés publiques (cryptographie symétrique ou asymétrique). Par exemple, Google Workspace passe par un serveur en ligne pour distribuer les clés destinées au chiffrement et au partage des données entre utilisateurs autorisés. Mais un serveur de distribution de clés de sécurité peut limiter à la fois la performance et la sécurité du processus.
Afin de parer à ce problème, MEGA, un autre service de chiffrement côté client, utilise la cryptographie à clé publique, ce qui permet d’éviter l’étape du serveur de distribution de clés en ligne. Cette stratégie nécessitant cependant une gestion des certificats électroniques sophistiquée, car le nombre de chiffrements par cryptographie asymétrique est proportionnel au nombre potentiel d’utilisateurs à partager un document, elle est difficile à appliquer à grande échelle.
À lire aussi : La chasse au gaspillage dans le cloud et les data centers
Le chiffrement côté client demande des ressources de calcul importantes. Comment dépasser cette limitation ?
Supposons qu’un hôpital veuille confier le stockage des dossiers électroniques de ses patients à un service de cloud et souhaite établir une politique spécifique d’accès aux dossiers. Avant de délocaliser un dossier, l’hôpital pourra spécifier que seuls les cardiologues de l’hôpital universitaire, ou bien les chercheurs de l’institut de sciences de la vie pourront y accéder. Notons que « CT » désigne le dossier médical chiffré et que « AP » = (cardiologue ET hôpital universitaire) OU (Chercheur ET institut de sciences de la vie) représente la politique d’accès. CT et AP sont liés sur le plan cryptographique au moment du transfert vers le cloud pour le stockage de données. À partir de là, seuls les utilisateurs remplissant les conditions de AP peuvent déchiffrer CT afin d’accéder au dossier médical décrypté.
Ce système de chiffrement peut-être mis à l’échelle, car sa politique d’accès ne nécessite pas de lister tous les individus ayant l’autorisation d’accéder aux données, seulement les caractéristiques des utilisateurs potentiels. Ce n’est pas le serveur cloud qui fait respecter le contrôle d’accès (c’est-à-dire le décryptage) aux données chiffrées. Ce contrôle d’accès est mis en œuvre grâce aux algorithmes de chiffrement et de déchiffrement eux-mêmes, qui sont démontrés sûrs en théorie.
Au-delà du stockage sécurisé : exploiter des données chiffrées efficacement
Ce type de décryptage, déjà en usage, demande de grosses ressources de calcul. Pour des appareils aux ressources limitées, ceci est un inconvénient majeur en termes d’efficacité. Pour faire face à ce problème, nous avons proposé un protocole qui réduit la consommation de l’opération de déchiffrement de deux ordres de grandeur pour l’utilisateur final en sous-traitant le plus gros de la charge de travail à un serveur cloud public.
Un autre problème essentiel dans l’utilisation du chiffrement côté client est la « révocation de l’utilisateur » : lorsqu’un utilisateur quitte le système, change de poste ou perd sa clé privée, la clé doit être révoquée afin d’empêcher un accès non autorisé à des données sensibles. Les systèmes actuels recourent principalement à l’horodatage pour retirer aux utilisateurs révoqués la possibilité de déchiffrer de nouveaux contenus. Cependant, l’horodatage nécessite des mises à jour régulières, ce qui peut demander des ressources de calcul importantes pour les plus grands systèmes. Nous avons donc proposé un système de chiffrement basé sur le matériel (hardware) et des attributs révocables, afin de rendre ce processus moins coûteux.
À lire aussi : Le « fog computing » est l’avenir du cloud – en plus frugal et plus efficace
Faire des calculs directement sur des données chiffrées
Idéalement, les serveurs devraient être capables d’accomplir des opérations importantes sur des données chiffrées sans même avoir à les décrypter, ce qui permettrait de préserver la confidentialité à chaque étape.
C’est là qu’intervient ce qu’on appelle le « chiffrement entièrement homomorphe ». Il s’agit d’une technique de chiffrement de pointe qui permet que des opérations mathématiques — en particulier addition et multiplication — soient effectuées sur des données chiffrées directement par un serveur, sans passer par le déchiffrement.
Toutefois, les systèmes de pointe actuels ne sont pas encore utilisables pour les opérations à grande échelle à cause du « bruit » : des données aléatoires sont introduites involontairement par les opérations de chiffrement. Ce bruit menace l’intégrité des résultats des calculs et rend nécessaires des opérations fréquentes de suppression des imprécisions — encore une fois, un processus coûteux en ressources de calcul, en particulier sur les systèmes de données volumineux.
Nous proposons pour ce problème une nouvelle approche de traitement direct de données chiffrées. Elle permet d’effectuer un nombre illimité d’opérations arithmétiques sans recourir au « bootstrapping » (l’opération mathématique permettant de réduire le bruit) et atteint des performances supérieures pour diverses opérations de calcul sécurisé, par exemple la réidentification respectueuse de la vie privée.
Créé en 2007 pour accélérer et pour partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X (@AXAResearchFund).

Robert Deng a reçu des financements de la Singapore National Research Foundation.
13.03.2025 à 18:11
Retour sur le Sommet de Paris : l’IA « pour les gens et la planète » n’est pas celle que l’on croit
Texte intégral (3113 mots)

Le Sommet pour l’action sur l’intelligence articifielle qui s’est tenu à Paris début février 2025 se voulait optimiste. Il a abouti à une déclaration pour « une IA durable et inclusive, pour les gens et la planète ». Les discussions sur la durabilité ont principalement eu lieu au ministère de la transition écologique, où était présent un de nos chercheurs.
Il faut distinguer différents types d’IA. L’IA générative, en particulier, n’est pas indispensable pour étudier la planète ; par contre, elle consomme beaucoup d’énergie et de ressources.
Le premier Sommet sur l’IA, organisé en 2023 par le Royaume-Uni sous le nom de Sommet pour la sécurité de l’IA, s’était conclu par une déclaration prudente sur les risques existentiels que poserait l’IA vis-à-vis de l’humanité. Le second Sommet qui se tenait le mois dernier à Paris, cette fois pour l’action sur l’IA, aura abouti à une déclaration beaucoup plus optimiste centrée sur une IA « pour les gens et la planète », pour reprendre les termes de son titre.
L’événement principal du Sommet pour l’action sur l’IA, organisé au Grand Palais, accueillait essentiellement des représentantes et représentants de gouvernements, il n’avait pas vocation à rentrer dans le détail. Pour comprendre ce que peut être une IA « pour les gens » et surtout « pour la planète », comme nous allons le voir, il faut pourtant différencier plusieurs types d’IA et préciser les termes.
Le Forum pour l’IA durable, qui se tenait en marge de l’événement principal, allait dans ce sens.Il s’est tenu au ministère de la transition écologique, à deux kilomètres du Grand Palais. En une journée, 25 personnes issues d’administrations publiques, d’entreprises de la Tech et du monde académique invitées par le ministère se sont succédé sur scène. L’organisation la plus impliquée sur la question était, semble-t-il, l’ONU, représentée par cinq personnes. J’étais, moi, dans l’audience.
Ce qui s’est dit au Forum pour l’IA durable
La conversation durant le forum peut se résumer ainsi :
Big Tech : « Regardez ce que peut faire l’IA ! Elle a déjà un impact positif sur nos sociétés. »
Administrations publiques : « De quoi auriez-vous besoin pour faire progresser cette technologie pleine de promesses ? »
Big Tech : « De plus d’énergie ! »
Recherche : « Attention tout de même au coût environnemental global de l’IA générative, qui a aussi un impact négatif sur nos sociétés. »
Big Tech : « Le domaine évolue très vite. Demain, des gains en efficacité absorberont la hausse de consommation, l’impact net sera positif ! »
Recherche : « C’est sans compter sur les effets rebonds qui amplifieront le recours à l’IA générative. »
Big Tech : « Ce n’est pas à nous de décider ce que les individus feront avec l’IA. Nous faisons confiance à la créativité humaine. »
Administrations publiques : « Cette IA pourrait-elle par exemple servir à la lutte contre le réchauffement climatique ? »
Recherche : « Certainement. Mais on ne parle alors plus d’IA générative, qui n’est que la dernière génération d’une longue série d’innovations technologiques.
Administrations publiques : « Je reviens quand même à l’IA générative. On observe déjà une forte inégalité d’accès à cette technologie (selon le revenu et selon le genre). Ne devrait-on pas essayer de la rendre plus accessible ? »
Recherche : « Vous décidez. Mais il faudrait alors une collaboration plus étroite avec la Tech, pour mieux estimer son impact net réel. Nous n’avons pas assez de données fiables. Vous non plus, d’ailleurs. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’IA générative contre la planète
L’IA générative a quelque chose de spectaculaire. Elle est en effet pleine de promesses. Pourtant, quelques minutes à peine après le lancement officiel de la journée, Sarah Myers West, co-directrice de l’institut de recherche privé AI Now, rappelait un fait essentiel : le développement de cette technologie est en train de menacer la transition écologique.
À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?
À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
Lorsque Donald Trump et Emmanuel Macron annoncent, les 21 janvier et 9 février respectivement, des deals à plusieurs centaines de milliards de dollars pour construire de nouveaux centres de données dédiés à l’IA, l’effet attendu est une hausse importante de la consommation électrique dans les régions concernées.
Dans l’assistance, l’association Beyond fossil fuels prend la parole pour rappeler qu’à court terme, ce surplus d’électricité sera probablement produit avec l’infrastructure existante, encore très émettrice de CO2 dans de nombreux pays.


À cet avertissement, Nvidia et Google, représentées par leur directeur et directrice sustainability (durabilité), répondent par des promesses. Le travail d’ingénierie dans ces entreprises serait tel que des gains substantiels en efficacité permettraient d’absorber la hausse actuelle de consommation due à l’IA.
Le représentant de Nvidia annonce par exemple une réduction de 75 % de la consommation électrique d’une génération à l’autre de leurs cartes graphiques. Les cartes conçues par Google, optimisées pour les réseaux de neurones artificiels, seraient encore plus performantes. Il n’y a pas eu d’opposition frontale entre les entreprises de technologie et les universitaires ce 11 février, mais, dans ses publications scientifiques, Google critique régulièrement les évaluations d’empreinte carbone faites par le monde académique, au motif qu’elles ne prendraient pas suffisamment en compte les dernières innovations.
Comme en réponse à cet argument, à la suite de Sarah Myers West, la chercheuse Sasha Luccioni prévient que l’histoire des sciences et techniques n’a jamais démontré que les gains en efficacité favorisent la sobriété. Au contraire, l’efficacité amène quasiment systématiquement un regain de consommation qui, en volume global, augmente la consommation énergétique, l’impact environnemental ou, dans le cas de l’IA, la quantité de calcul associée à une technologie. Ce phénomène porte un nom : le paradoxe de Jevons ou effet rebond.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
En ligne avec cet argument, l’OCDE a proposé une méthodologie de mesure d’impact environnemental qui prend en compte non seulement la production, le transport, l’exploitation et le recyclage de l’équipement informatique mais aussi les impacts indirects de l’adoption de systèmes d’IA, comme le recours systématique à ChatGPT plutôt qu’à un moteur de recherche.
L’IA non générative pour la planète
Malgré ces précautions, l’OCDE, l’Agence internationale de l’énergie, l’ONU et d’autres administrations publiques présentes au forum sont très enclines à voir l’IA comme un outil essentiel de lutte contre le réchauffement climatique. Certes, certains systèmes d’IA ont été conçus dans cet objectif. Le directeur du CivicDataLab, Gaurav Godhwani, avait été invité pour en donner un exemple : dans l’état d’Assam en Inde, où les inondations sont de plus en plus fréquentes, le CivicDataLab propose une application d’analyse de risques pour mieux anticiper ces inondations.
La communauté scientifique Climate Change AI, représentée par David Rolnick et Lynn Kaack à Paris, a fait un travail méticuleux de recensement de ce genre d’approches. Mais les chercheuses et chercheurs enchaînent avec une précision importante : l’IA regroupe sous un seul nom, fortement polysémique, de nombreuses techniques de traitement de la donnée.
Lorsque l’IA est utilisée comme outil d’aide à la décision, ce n’est plus de l’IA générative. Il n’est pas nécessaire de générer du texte ou des images pour analyser des images satellites (pour anticiper des catastrophes naturelles) ou prédire la demande en électricité d’un territoire (pour en optimiser la distribution). Or, les méthodes vouées à ces problèmes consomment nettement moins d’électricité qu’un modèle d’IA générative et sont loin de nécessiter des investissements conséquents dans des centres de données.
Dans une méta-analyse du travail de Climate Change AI, il apparaît que plus de la moitié des approches recensées sont des méthodes d’apprentissage machine connues depuis dix ou quinze ans, avant l’émergence des IA génératives. Même lorsque l’IA générative se révèle intéressante dans la lutte contre le réchauffement climatique, pour les modèles météorologiques par exemple, son échelle est nettement réduite par rapport à celle des grands modèles utilisés par ChatGPT ou Mistral. Le laboratoire d’IA de Météo France, qui avait un stand au ministère de la transition écologique, a développé un modèle pour estimer les précipitations futures, conceptuellement proche de DALL·E (le générateur d’image de ChatGPT) mais 200 fois plus petit en nombre de paramètres.
Le terme d’« IA durable », sujet central des discussions ce 11 février, est donc utilisé pour désigner deux choses bien distinctes.
Il fait d’abord référence à une IA dont on maîtriserait la consommation énergétique et l’impact environnemental, mais les orateurs et oratrices du Forum pour l’IA durable l’utilisent aussi pour désigner une IA au service du développement durable. L’IA non générative coche les deux cases ; l’IA générative grand public, jusqu’à preuve du contraire, n’en coche aucune. L’IA des entreprises de technologie et celle des administrations publiques ne se ressemblent pas.
L’IA pour les gens
Bien que l’IA générative concentre tous les investissements et menace en partie la transition écologique, les quelques centaines de millions d’usagers de ChatGPT diraient peut-être à sa décharge qu’elle est utile à toute sorte de tâches. Il serait alors justifié de lui allouer une partie non négligeable de l’électricité mondiale.
Peut-on ainsi dire que l’IA générative est une IA « pour les gens » ? Autrement dit, si ChatGPT obtenait une dérogation à l’effort mondial de lutte contre le réchauffement climatique, qui en bénéficierait réellement ?
Ce 11 février justement, Christine Zhenwei Qiang, directrice au numérique de la Banque mondiale, reprend les conclusions d’un rapport de son institution sur l’adoption de ChatGPT dans le monde. Selon ce rapport, le trafic vers ChatGPT vient à 50 % de pays à fort revenu alors que ces pays ne représentent que 13 % de la population mondiale. Les pays à faible revenu représentent à l’inverse 1 % seulement du trafic. Comme un symbole, la ministre de l’information et des communications du Rwanda, un pays à faible revenu selon la Banque mondiale, était initialement prévue dans le programme de la journée, mais n’y a finalement pas participé.
Toujours selon le rapport de la Banque mondiale, les femmes ne représentent qu’un tiers seulement des usagers. Ces deux catégorisations, par revenu et par genre, illustrent l’utilité toute relative de l’IA générative pour l’humanité.

Victor Charpenay a reçu des financements du réseau d'excellence ENFIELD (European Lighthouse to Manifest Trustworthy and Green AI) dans le cadre du programme Horizon Europe.