16.02.2026 à 17:00

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.
Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.
AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.
Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.
AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.
À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle
L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.
Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.
Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.
Plusieurs limitations tempèrent néanmoins l’enthousiasme.
Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.
Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.
De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.
Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.
Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.
Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?
Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.
Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.
15.02.2026 à 17:02

La somme d’informations que nous transmettent les satellites sur notre planète est colossale. Aujourd’hui, le défi est d’obtenir des données de meilleure qualité encore, et surtout de les faire parvenir jusqu’aux décideurs sous une forme utile et exploitable.
Depuis quarante ans, les données d’observation de la Terre se sont imposées comme l’un des outils les plus puissants pour mieux comprendre notre planète et suivre les effets de nos actions pour la préserver. Longtemps réservée aux chercheurs et aux agences spatiales, elle irrigue désormais l’action publique, l’économie et les aspects de politique de défense nationale. Mais cette richesse de données exceptionnelles reste largement sous-exploitée, notamment du côté des décideurs publics. Nous disposons d’un trésor dont nous ne tirons pas encore tout le potentiel pour éclairer les décisions ou accélérer la transition écologique.
Chaque jour, les satellites d’agences nationales, dont ceux opérés par le Centre national d’études spatiales (Cnes), ceux du programme européen Copernicus ou encore ceux des constellations commerciales observent la Terre. Ils produisent une somme gigantesque d’informations : températures de surface, concentrations de gaz, humidité des sols, couverture par la végétation, hauteur des vagues, courants marins… La liste est longue, il pleut littéralement de la donnée. La force de ces données ne réside pas seulement dans la quantité, mais surtout dans leur capacité à couvrir de façon homogène l’ensemble de la planète, y compris les zones les plus difficiles d’accès. L’espace se met donc au service de l’adaptation au changement climatique et les données d’observation de la terre deviennent un outil de décision pour mieux comprendre, agir et anticiper.
Les satellites offrent un niveau d’objectivité rare : ils observent tout, partout, sans être influencés par les frontières administratives ou les intérêts locaux. Alors que les données terrestres peuvent être fragmentées ou hétérogènes, les satellites offrent une mesure fiable, continue, homogène et donc comparable d’un pays à l’autre. Ensuite, les progrès technologiques ont permis des évolutions rapides : une résolution améliorée, une fréquence d’observation accrue, des capteurs de différentes natures. Autrefois on était seulement capable de prendre une photographie par mois, alors qu’aujourd’hui, la surveillance est quasi permanente. Depuis l’espace, nous obtenons une vision factuelle, indépendante et systématique du monde.
La donnée d’observation de la Terre soutient les politiques publiques en irriguant déjà une multitude de domaines. Concernant la sécurité alimentaire et la gestion des ressources en eaux, les satellites apportent des informations sur le stress hydrique pour anticiper des épisodes de sécheresse et ainsi mieux gérer les pratiques d’irrigation, mais également quant au suivi de la croissance des cultures ou pour estimer les rendements agricoles.
Ils aident également à gérer les risques naturels en fournissant une surveillance des zones à risque pour le suivi des incendies, notamment des mégafeux, ou des inondations. Ils permettent de dresser des cartographies entre avant et après les catastrophes naturelles pour aider l’intervention des secours et soutenir la reconstruction de l’écosystème endommagé. Le suivi par satellite permet également le suivi de la santé des arbres et de la déforestation, des zones côtières et de l’état des zones humides.
Enfin, l’observation depuis l’espace permet de mesurer les émissions de gaz à effet de serre. À l’heure actuelle, les inventaires nationaux, basés sur des modèles statistiques ou des estimations, sont trop lents pour réagir face à la rapidité de la crise climatique, puisqu’on constate un décalage de plusieurs années (entre deux à quatre ans) entre l’émission réelle et la donnée officielle. Dans un contexte où les décisions doivent être rapides, ce délai est problématique. En observant la composition de l’atmosphère, les satellites peuvent détecter les panaches de méthane et de CO2 quasiment en temps réel. Ils identifient ainsi des fuites ou des anomalies localisées qui échappent parfois totalement aux inventaires classiques.
D’autres acteurs peuvent bénéficier des informations issues des satellites, pour orienter les politiques publiques en termes d’aménagement du territoire, notamment par l’observation des îlots de chaleur urbains, la mesure de la qualité de l’air ou bien la planification d’actions de verdissements des zones et espaces urbains.
Les données d’observation de la terre s’inscrivent donc dans plusieurs domaines en dotant les décideurs publics d’un outil transversal diagnostiquant notre planète de manière continue, précise et à des échelles locales, régionales ou mondiales. C’est là que se joue l’un des défis majeurs : rendre ces outils accessibles aux acteurs publics, aux élus, et aussi aux entreprises et aux citoyens. Les plates-formes de visualisation et les services d’analyse qui émergent aujourd’hui répondent à ce besoin en traduisant la complexité scientifique en informations compréhensibles, opérationnelles, et donc à terme en actions.
Cependant, malgré leur potentiel considérable ainsi que leur qualité et leur performance opérationnelle déjà démontrée, les données spatiales peinent à trouver leur place au sein des administrations et des entreprises. En effet, il s’agit d’un univers technique complexe. Les données brutes sont massives, spécialisées, souvent difficiles à interpréter. Leur analyse requiert des expertises précises : traitement d’images satellitaires, science des données, modélisation atmosphérique…
Nous observons donc un gouffre entre l’accès de plus en plus facilité aux données d’observation de la Terre et la capacité à les utiliser en toute confiance en l’intégrant dans les chaînes de prise de décisions. Même si la majorité des données est ouverte et gratuite, cela ne suffit pas. Il faut des plates-formes, des services, des outils visuels pour les rendre intelligibles, avec des interfaces pensées pour le suivi d’une application de politique publique. Les élus, à titre d’exemple, n’ont pas vocation à manipuler des gigaoctets de données, ils ont besoin de visualisations simples, d’indicateurs synthétiques, de cartographies claires. L’expertise doit précéder pour interpréter les données et les rendre véritablement utiles pour les décideurs.
Pour déverrouiller ces usages, plusieurs leviers se développent. Il s’agit, entre autres, de croiser des données de natures différentes. Cette combinaison permet de fournir des informations fondées sur les données d’observation de la Terre directement exploitables, plus fiables, plus interprétables et mieux contextualisées au besoin de l’utilisateur.
Les données d’observation de la Terre changent la donne en offrant la capacité de voir notre planète autrement. L’observation spatiale ne résoudra pas d’elle-même la crise climatique mais, combinée à d’autres sources de données, elle apporte quelque chose d’essentiel : une vision objective, continue, indépendante et globale de l’état de la planète. Ces informations sont devenues indispensables aux collectivités qui doivent désormais anticiper, et non seulement réagir.
Les données d’observation de la Terre permettent de mesurer plus vite, comprendre plus finement et décider plus efficacement, dès lors que l’information qui en découle est accessible, lisible et traduite en indicateurs exploitables. Notre rôle au Cnes est de valoriser ces données pour leur donner du sens et en faire un levier d’action. Parmi les applications les plus prometteuses et stratégiques liées à l’adaptation au changement climatique dans les politiques publiques, il ressort que l’enjeu n’est pas seulement de mesurer, mais de mesurer plus vite et plus précisément, pour mieux anticiper.
Carine Saüt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.02.2026 à 08:42
En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?
OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.
L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.
Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.
Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.
Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.
Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.
Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.
OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.
L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.
La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.
Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.
On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.
Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.
Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.
Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.
Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.
Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.
Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.
Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.
Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter
Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.
C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.
Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.
Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.
Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.
L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.
La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.
La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?
Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.
Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.