13.05.2026 à 10:47
Igor Shishlov, Affiliate Professor - Climate Change Economics, HEC Paris Business School
For most policymakers, export credit agencies (ECAs) are financial tools that boost national companies’ business endeavours abroad. But a recent research project conducted by Philipp Censkowsky, Paul Waidelich, Igor Shishlov, and Bjarne Steffen reveals the profound impact they have on the energy transition. Our study analysed 921 energy-finance deals backed by ECAs from 31 countries between 2013 and 2023.
We used commercial transaction data to track how much ECAs invested in fossil fuels versus renewable energy. We also examined key policy shifts to understand how international agreements influence the decisions ECAs make.
Are ECAs slowing down or speeding up the low carbon transition? For years, export credit agencies have been key players in global trade finance, providing state-backed loans, insurance and guarantees to support national exporters. But their role in the energy transition is now under scrutiny.
While some ECAs have made strides in shifting finance away from fossil fuels, many remain deeply entangled in financing oil, gas and even coal — the dirtiest fuel of them all.
Our research underscores this reality. ECAs are major enablers of energy infrastructure worldwide, and their continued support for fossil fuels is at odds with international climate commitments.
These agencies have historically played a crucial role in financing fossil fuel projects by de-risking investments for private lenders. This influence is massive — comparable to multilateral development banks — yet their role in shaping the energy transition has been largely underexplored in academic research.
In our study, we found a clear trend:
ECAs are slowly pivoting towards renewable energy, but fossil fuel projects still receive a large share of support, even as international pledges like the Glasgow Statement call for the phasing out of international fossil fuel financing.
Our paper shows that, in 2013, only 9% of ECA energy commitments went to renewable energy technologies (RETs). By 2023, that share had jumped to over 40%.
While this suggests a significant shift, the total dollar amount of fossil fuel financing remains high.
Certain ECAs, particularly those in Europe, have made stronger commitments to “greening” their portfolios, while others — like those in Japan, South Korea and China — continue to support fossil fuel infrastructure.
Breaking down financing patterns reveals important nuances:
Coal financing has has sharply declined among OECD ECAs, following the adoption of international restrictions. However, some non-OECD countries continue to finance coal projects, particularly in emerging economies.
Oil and gas projects still dominate ECA commitments, especially in the early stages of production and transportation. Even as financing for coal declines, oil and gas deals receive billions in state-backed support.
Wind energy leads the charge in renewables financing, with large offshore projects securing significant ECA backing. Solar and hydrogen projects, while growing, still lag behind.
One of the most striking findings of our research is that ECA-backed renewable energy investments are overwhelmingly concentrated in high-income countries.
Developing nations — where clean energy investment is most needed — receive little support, a trend driven by the high perceived financial risks, and a lack of strong policy incentives.
Why do some ECAs lead in the energy transition while others lag behind?
A key factor is their mandate and political will of their respective governments. Many ECAs are designed primarily to promote national exports and domestic job creation, with little regard for climate or sustainability objectives. This narrow focus has made it difficult for ECAs to pivot away from fossil fuels, even when their governments have pledged to do so.
Some countries, however, are starting to rethink this approach. In the UK and the Netherlands, studies have shown that shifting export finance from fossil fuels to renewables can actually create more domestic jobs. ECAs in countries that have integrated climate goals into their mandates — like those in the Export Finance For Future (E3F) coalition — tend to be leading the way in shifting finance towards renewables.
But without clear and binding international rules, many ECAs cite their mandates as an excuse to continue financing fossil fuels. For example, the Export–Import Bank of the United States (EXIM) has justified continued oil and gas support under its “non-discrimination” clause, even though the US government under the Biden Administration has pledged to end international public finance for fossil fuels.
A fragmented policy landscape creates loopholes. When one country’s ECA pulls out of fossil fuel financing, others may step in to fill the gap.
This “free-rider” dynamic may weaken the impact of national-level climate commitments, and underscores the need for stronger international cooperation.
The most important global policy framework for ECAs is the OECD Arrangement on Officially Supported Export Credits, which already includes restrictions on coal financing. But negotiations to expand these rules to oil and gas have stalled, despite pressure from climate advocates and progressive governments.
Former US President Joe Biden’s administration attempted to push for stricter rules in late 2023 but failed to secure agreement from key countries like South Korea and Turkey, which is set to host COP31 - the next UN Climate Change Conference.
In our paper, we argue that reviving global dialogue on ECA climate policy beyond the OECD is crucial. Without a coordinated approach, fossil fuel-dependent economies will continue to resist change, and financing for clean energy will remain unevenly distributed.
So, what can policymakers do to accelerate the transition? Here are three key recommendations:
Redefine ECA mandates: National governments should integrate climate and sustainability objectives into their ECA policies, ensuring that export finance aligns with broader climate commitments.
Expand international agreements: Strengthening the OECD Arrangement on Officially Supported Export Credits to include oil and gas restrictions would create a level playing field and prevent countries from undermining each other’s progress.
Improve financing mechanisms for developing countries: High capital costs and political risks make it difficult for emerging economies to attract clean energy investment. ECAs could help by offering financial support and lower-cost loans for renewable energy projects in developing countries.
Ultimately, ECAs are a powerful but underutilised tool in the fight against climate change.
If policymakers take bold action to reform export finance, these institutions could become catalysts for a just and rapid energy transition. But without stronger mandates and international cooperation, they risk being a barrier rather than a solution.
The impact of ECAs depends on whether governments align their mandates with climate goals.
Redirecting finance from fossil fuels to renewables, expanding support in developing economies, and strengthening international agreements, could make ECAs a driving force in decarbonisation.
This article is based on the original study “Quantifying the shift of public export finance from fossil fuels to renewable energy” published in Nature Communications in January 2025, co-authored by Philipp Censkowsky of HEC Lausanne, Paul Waidelich of ETH Zurich, Igor Shishlov of Perspectives Climate Group and HEC Paris, and Bjarne Steffen of ETH Zurich.
Igor Shishlov works for Perspectives Climate Group, where he previously conducted research on export credit agencies funded by Both ENDS, the European Climate Foundation, Oxfam America, and the Nordic Council of Ministers.
13.05.2026 à 10:37
Emmanouil Flaounas, Senior researcher in atmosphere and climate sciences, Swiss Federal Institute of Technology Zurich
Davide Faranda, Directeur de recherche CNRS, Université Paris-Saclay

En mars 2026, un cyclone baptisé « Jolina » a causé d’importants dégâts dans toute l’Afrique du Nord. En 2020 et 2023, les tempêtes Ianos et Daniel ont causé de graves dégâts en Grèce, et Daniel a poursuivi son chemin jusqu’en Libye. Elle y a provoqué une catastrophe humanitaire, dans la ville de Derna, où des milliers de personnes ont été déclarées mortes ou portées disparues.
Ces cyclones de type tropical se produisent dans une région pourtant non tropicale, la mer Méditerranée. Ils sont connus depuis les années 80 et on les appelle « médicanes », un mot-valise formé à partir de « Méditerranée » et « hurricane » (ouragan, an français).
Comme toutes les tempêtes, les médicanes ne connaissent pas de frontières. Lorsqu’ils balayent la côte méditerranéenne, l’une des régions les plus densément peuplées et les plus vulnérables au monde (la population totale des pays méditerranéens en 2020 était d’environ 540 millions de personnes, dont environ un tiers vivait dans des zones côtières), leurs effets s’étendent sur plusieurs pays.
Ces tempêtes tirent leur énergie du réservoir qu’est la chaleur de la mer. À cause du changement climatique, la température de la Méditerranée augmente, et le réservoir grandit. Ce phénomène associe des effets atmosphériques et océaniques couplés, et il est urgent de mener davantage de recherches afin d’améliorer les systèmes d’alerte précoce et la préparation des populations — tant en matière de protection civile que concernant la manière dont nous ferions face à un événement catastrophique qui dépasserait notre niveau de préparation.
L’un des premiers articles de recherche sur le sujet, datant de 1983, s’ouvrait par la phrase : « Parfois, mère Nature fait de son mieux pour nous tromper », accompagnée d’une image satellite d’un cyclone présentant une structure nuageuse en spirale bien organisée et un œil sans nuages en son centre, étonnamment similaire à ce que l’on s’attendrait à voir… sous les tropiques. Ces propos laissaient entrevoir la surprise de découvrir un phénomène aussi impressionnant et contre-intuitif qu’une structure de tempête de type tropical en Méditerranée.
Depuis lors, des progrès significatifs ont été réalisés dans la compréhension des médicanes grâce aux collaborations scientifiques internationales. En 2025, un effort de recherche collectif a abouti à une définition formelle de ce phénomène autrefois contre-intuitif.

Ce qu’il faut retenir de cette définition, c’est que les médicanes partagent d’importantes caractéristiques physiques avec les cyclones tropicaux, mais ne leur sont pas identiques. Les inondations dues à des précipitations intenses et étendues constituent leur danger le plus grave, s’étendant souvent bien au-delà du centre du cyclone et couvrant des zones à l’échelle nationale ou internationale. Enfin, et c’est crucial : les vents sont très violents à proximité de leur centre, ce qui signifie qu’il faut pouvoir déterminer précisément leur trajectoire et le lieu où ils arrivent sur les côtes si on veut mieux prévenir les impacts liés aux tempêtes de vent et aux ondes de tempête.
Les événements répondant à cette définition formelle se produisent en moyenne moins de trois fois par an. Cette fréquence limitée signifie que nos données statistiques sont encore trop peu nombreuses pour tirer des conclusions définitives sur les lieux où les médicanes se produisent.
Les changements liés aux modifications du climat ne sont pas rassurants.
Des avancées récentes désignent la température de surface de la mer comme un facteur clé de l’intensification des tempêtes : une mer plus chaude entraîne une évaporation accrue et des flux de chaleur plus importants vers l’atmosphère, fournissant l’énergie nécessaire au développement et à l’intensification d’un médicane. Or, selon l’Atlas du service Copernicus sur le changement climatique, la Méditerranée s’est réchauffée d’environ 0,4 °C par décennie entre 1990 et 2020, une tendance claire, qui s’accélère.
Si ce chiffre peut sembler faible au quotidien, ses implications physiques sont loin d’être négligeables. En effet, une augmentation de seulement 1 à 2 °C peut entraîner une hausse significative des vitesses de vent et des taux de précipitations. De plus, le chiffre ci-dessus représente une moyenne à l’échelle du bassin (c’est-à-dire pour l’ensemble de la mer Méditerranée) ; localement, lors d’événements de médicane individuels, des températures de surface de la mer supérieures de 2 °C ou plus à la normale ont déjà été enregistrées.
Une étude récente permettant d’établir un lien entre l’intensité d’un médicane et le changement climatique a été publiée en 2022 et s’est concentrée sur la tempête « Apollo » (2021), montrant que des températures de surface de la mer plus chaudes et une atmosphère plus chaude avaient accru la disponibilité en humidité et les fortes précipitations sur la Sicile.
Des analyses ultérieures de Daniel ont également révélé que les précipitations extrêmes sur l’est de la Méditerranée et la Libye avaient été intensifiées par le changement climatique.
Plus généralement, des recherches récentes indiquent que les précipitations augmentent de façon plus nette que l’intensité des vents (des changements dans les vents sont également détectés lors de certains événements).
Aujourd’hui, climameter.org, un consortium international qui réalise des études d’attribution rapide selon un protocole évalué par des pairs, surveille les médicanes et les cyclones méditerranéens grâce à des études d’attribution rapide des phénomènes extrêmes émergents.
La recherche collaborative entre la communauté scientifique et les agences de protection civile a joué un rôle central dans le développement de systèmes d’alerte précoce et l’amélioration de la préparation.
L’une de ces initiatives est le projet MEDICANES de l’Agence spatiale européenne — qui se penche notamment sur le médicane Jolina de mars 2026 à l’heure où nous écrivons ces lignes.
En fin de compte, pour nous adapter efficacement aux changements climatiques et plus particulièrement à des médicanes plus violents en Méditerranée, il nous faut de meilleurs modèles de prévision climatique qui livrent des estimations plus fiables et plus précises des phénomènes extrêmes liés aux cyclones.
Une approche de bout-en-bout qui traduit les résultats de la recherche scientifique en informations exploitables pour adapter la prévention et la protection civile est à la fois opportune et essentielle, notamment pour la planification de la résilience des infrastructures et les systèmes d’alerte précoce visant à réduire la vulnérabilité et les impacts socio-économiques.
Le mécénat scientifique d’AXA fait désormais partie du Fonds Axa pour le Progrès humain, qui regroupe les engagements philanthropiques du Groupe et des Mutuelles d’Assurances Axa dans les domaines de la science, de la nature, de la solidarité et de la culture. Avant 2025, ce mécénat scientifique global était assuré par le Fonds Axa pour la Recherche, qui a soutenu plus de 750 projets à travers le monde depuis sa création en 2007. Pour en savoir plus, rendez-vous sur Fonds Axa pour le progrès humain.
Les projets Templex (ANR-23-CE56-0002) et EXTENDING (ANR-22-EXTR-0005) sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Emmanouil Flaounas a reçu des financements de l'Agence Spatiale Européenne (MEDICANES project with Contract No. 4000144111/23/I-KE).
Davide Faranda a reçu des financements de ANR et ERC (Horizon).
13.05.2026 à 09:56
Marie-Francoise Roy, emerita professor in mathematics

Les femmes ne représentent qu’un tiers des chercheurs dans le monde, mais sont encore moins intégrées dans les structures de pouvoir des organisations scientifiques. Une étude mondiale étudie leur présence aux postes d’influence, afin de faire émerger des bonnes pratiques.
Le monde universitaire peine à atteindre l’égalité des sexes. Les femmes y sont sous-représentées à tous les niveaux, dans la recherche et encore plus aux postes de direction au sein des organisations scientifiques. C’est aussi le cas pour les académies des sciences (institutions prestigieuses au sein des systèmes scientifiques nationaux) et les unions scientifiques (organisations internationales représentant les communautés disciplinaires).
Aujourd’hui, les femmes représentent près d’un tiers des effectifs de recherche à l’échelle mondiale. Selon l’UNESCO, elles représentaient 31,1 % des chercheurs dans le monde en 2022, contre 29,4 % en 2012. Elles sont particulièrement sous-représentées en ingénierie et en technologie (un quart, voire moins), tandis que la parité est globalement atteinte en sciences sociales et humaines.
Cependant, la représentation des femmes au sein des effectifs ne se traduit pas automatiquement par un accès équivalent aux postes de direction. Une étude mondiale récente montre que les femmes restent sous-représentées dans les organisations qui influencent les agendas et les normes scientifiques, reconnaissent l’excellence scientifique et conseillent les gouvernements.
Ce rapport de 2026 s’appuie sur des données provenant de plus de 130 académies scientifiques et unions scientifiques internationales, ainsi que sur une enquête menée auprès de près de 600 scientifiques. Il a été réalisé par l’International Science Council, the InterAcademy Partnerhip et le Standing Committee for Gender Equality in Science, et fait suite à des études menées en 2015 et 2020. Je suis l’une des auteures du rapport de 2026, avec Léa Nacache et Catherine Jami.
Les académies nationales des sciences illustrent l’ampleur des inégalités entre les sexes. En 2025, les femmes représentaient en moyenne 19 % des membres de ces instances. Ce chiffre représente une amélioration par rapport aux résultats des deux études précédentes : 12 % en 2015 et 16 % en 2020. Cependant, ce nombre reste bien inférieur à la proportion des femmes au sein de la communauté scientifique mondiale. Et la moyenne masque de fortes disparités : dans certaines académies, les femmes représentent moins de 5 % des membres ; dans d’autres, elles avoisinent les 40 %.
La mission des unions scientifiques internationales est de contribuer au développement et à la structuration de leur discipline, d’organiser des congrès internationaux et de décerner des prix. Ces unions présentent un profil quelque peu différent de celui des académies. En moyenne, les femmes occupent désormais 40 % des postes de direction au sein des unions internationales qui ont répondu à notre enquête. Mais là aussi, les progrès sont inégaux. Des inégalités disciplinaires profondes subsistent, notamment pour les prix scientifiques les plus prestigieux.
Notre rapport examine les raisons de ces tendances, le fonctionnement concret des institutions et les moyens de faire évoluer la situation. Ces conclusions sont importantes car les académies et les unions scientifiques jouent un rôle majeur dans la gouvernance de la science. Les déséquilibres persistants entre les sexes au sein de ces instances soulèvent donc des questions non seulement d’équité, mais aussi de légitimité et d’efficacité. La légitimité de la science dépend en partie de la capacité de ses institutions à refléter la diversité de la communauté scientifique. Or, la légitimité est essentielle dans un contexte de défis mondiaux — du changement climatique aux pandémies — où la confiance du public envers la science est fragile.
Les disparités entre les sexes dans les instances dirigeantes de la science sont souvent expliquées par un effet retard : si moins de femmes ont intégré certains domaines il y a plusieurs décennies, elles sont aujourd’hui moins nombreuses à occuper des postes à responsabilité ou à être éligibles aux nominations dans les académies ou aux prix scientifiques. La dynamique des viviers joue un rôle, tout comme les écarts traditionnels entre les disciplines. Mais ces facteurs n’expliquent pas tout.
La plupart des organisations scientifiques déclarent avoir des procédures de nomination, d’élection et d’attribution formellement ouvertes et fondées sur le mérite. Pourtant, les données montrent que les femmes sont systématiquement sous-représentées dans les listes de nominés par rapport à leur présence parmi les scientifiques éligibles.
Notre analyse souligne l’importance des processus institutionnels. Qui est autorisé à soumettre une candidature ? Comment les candidats et candidates qualifiés sont-ils identifiés ? Les critères de nomination sont-ils transparents ? Quelle importance est accordée à la réputation et aux réseaux informels ?
Dans 90 % des académies interrogées, la nomination repose sur les personnes déjà membres. Dans un contexte où les membres sont majoritairement masculins, de telles procédures tendent à perpétuer les déséquilibres existants. Même en l’absence de discrimination explicite, les réseaux de parrainage informels et les mécanismes de visibilité professionnelle influencent le choix des candidats et des candidates. L’évaluation des candidats potentiels est donc façonnée par des dynamiques sociales et institutionnelles, et non uniquement par les réalisations et le mérite individuels.
Notre enquête sur les initiatives en faveur de l’égalité des genres a montré que les actions de sensibilisation et d’encouragement, à elles seules, ont eu un impact limité. Elles doivent s’accompagner de réformes structurelles. Dans la plupart des organisations, les mesures en faveur de l’égalité des genres manquent de structures dédiées, de mandats formels, de budgets ou de mécanismes de suivi.
Les résultats quantitatifs ont été complétés par les réponses à un sondage mené auprès de scientifiques actifs dans des organisations scientifiques. Ces réponses ont permis de mieux comprendre le fonctionnement concret du fonctionnement des structures.
Les femmes qui rejoignent des organisations scientifiques déclarent participer à des niveaux comparables à ceux des hommes. Elles siègent dans des comités, assistent à des réunions et contribuent aux activités. Cependant, nous avons constaté que cet engagement ne se traduit pas par une progression ou une reconnaissance équivalente.
Les femmes sont trois fois plus susceptibles que les hommes de signaler des obstacles à leur avancement au sein de leur organisation scientifique. Elles sont 4,5 fois plus nombreuses à déclarer manquer des événements importants en raison de leurs responsabilités familiales. Et lorsqu’elles peuvent y assister, elles déclarent six fois plus souvent ne pas avoir le sentiment de pouvoir participer à égalité avec les hommes.
En parallèle, les femmes sont 2,5 fois plus susceptibles que les hommes de signaler des expériences de harcèlement ou de microagressions dans le cadre de leurs activités au sein d’organisations scientifiques. Elles expriment également une moindre confiance dans la transparence des processus de sélection et dans les mécanismes de signalement et de traitement des comportements inappropriés.
Des entretiens qualitatifs ont permis de documenter les stratégies que les femmes développent pour évoluer dans ces environnements. Il s’agit notamment de la création de réseaux exclusivement féminins, de l’investissement dans l’engagement international pour échapper aux contraintes de leurs cultures locales ou encore de la mise en place de plaidoyers collectifs pour le changement. Ces stratégies semblent efficaces et les organisations devraient les encourager.
Le rapport ne préconise pas un modèle unique ni des objectifs fixes applicables partout. Les organisations scientifiques sont très diverses. Cependant, les données et les études de cas présentées dans le rapport mettent en évidence un ensemble de leviers institutionnels clés susceptibles d’influer sur le changement.
À titre d’exemple, dans les académies où les règles et les structures formelles ont été révisées, les progrès en matière de représentation des femmes ont été plus durables. Il est essentiel d’identifier et de généraliser systématiquement ces bonnes pratiques.
La conclusion principale est sans équivoque : la sous-représentation des femmes dans la gouvernance scientifique n’est pas due à leur manque de compétences. Elle reflète des pratiques institutionnelles ancrées dans des cultures qui se sont développées au sein de communautés scientifiques dominées par les hommes.
Si la science aspire à servir la société dans son ensemble, les instances qui la définissent et la représentent doivent être disposées à examiner leur fonctionnement et la composition de leurs instances.
Des collègues nombreuses et nombreux ont contribué à l’élaboration et à l’amélioration du rapport sur lequel se fonde cet article, préparé en collaboration avec Peter McGrath (InterAcademy Partnership) et Léa Nacache (International Science Council).
Marie-Francoise Roy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.05.2026 à 09:40
Karol Desnos, Maître de conférences à l'Institut d'Electronique et des Technologies du numérique, INSA Rennes
Mickaël Dardaillon, Maître de conférence en informatique embarquée, INSA Rennes
Quentin Vacher, Doctorant en Intelligence Artificielle Evolutionnaire, INSA Rennes
Les systèmes d’IA sont souvent critiqués pour leur grande consommation énergétique — à tel point que l’on se demande quelle production électrique va alimenter les data centers dont la construction est prévue à travers le monde. Mais des systèmes d’intelligence artificielle plus sobres existent. Certains s’inspirent de la stratégie évolutionniste de la nature afin d’arriver à une solution la plus simple possible pour un problème donné.
Les principes de sélection naturelle théorisés par Charles Darwin ont permis l’évolution d’êtres vivants remarquablement adaptés à leurs environnements. Le cerveau humain est un exemple remarquable de résultat de cette évolution, ne consommant qu’une vingtaine de watts, soit près de 1000 fois moins qu’une intelligence artificielle le surpassant au jeu de Go. En reproduisant informatiquement ces principes évolutifs, il est possible de construire des intelligences artificielles (IA) plus sobres.
Les progrès fulgurants des IA durant cette dernière décennie sont majoritairement dus à l’utilisation des réseaux de neurones artificiels, dits « profonds », capables d’apprendre efficacement des tâches très diverses. Seulement, l’exécution d’un tel réseau requiert la réalisation de plusieurs millions à plusieurs milliards d’opérations mathématiques par un ordinateur ; et plus la complexité d’une tâche est grande, plus la taille du réseau nécessaire pour la réaliser sera grande également.
L’utilisation massive de réseaux de neurones profonds, toujours plus imposants pour en augmenter les capacités pose un problème de soutenabilité majeur. En effet, ces réseaux nécessitent des ressources naturelles et une énergie croissantes : il faut produire, alimenter et refroidir les processeurs exécutant ces calculs, notamment les GPU.
Pour répondre à ce défi de soutenabilité, il est nécessaire de proposer des technologies d’IA alternatives adaptant naturellement leur complexité à celle de la tâche accomplie pour être plus sobres.
Les approches évolutives pour l’apprentissage d’IA offrent une alternative crédible aux réseaux de neurones profonds, en étant plus sobres tout en restant performantes. En effet, contrairement aux réseaux de neurones dont la taille est fixée par un développeur avant l’entraînement, l’approche évolutive construit une IA dont la taille s’adapte minimalement à une tâche spécifique. Le résultat est une IA d’une complexité calculatoire de plusieurs centaines à milliers de fois inférieure aux réseaux de neurones, et donc naturellement plus sobre.
La sélection naturelle et l’évolution reposent sur trois éléments essentiels : des individus définis par un génome, un mécanisme de reproduction, et un processus de sélection.
En biologie, le génome de chaque être vivant est construit en assemblant des briques de bases communes à une large diversité d’espèces : l’ADN. Le génome d’un être le caractérise en tant qu’individu, déterminant bon nombre de ses traits : forme, physiologie, taille, couleurs ; et le prédispose à certains comportements, tels que la course ou la nage.
Le mécanisme de reproduction permet à un ou plusieurs individus de donner naissance à de nouveaux individus, en copiant et en mélangeant leurs génomes. Cette copie, parfois imparfaite, crée un nouvel individu qui possède son propre génome, lui conférant des traits ressemblant à ceux de ses parents, mais possédant ses propres caractéristiques.
Un ensemble d’individus forme une population, qui existe dans un milieu où ils sont constamment évalués par des mises à l’épreuve : recherche de nutriments, survie en milieu hostile, recherche de partenaire de reproduction. Certains traits vont rendre des individus plus performants pour ces épreuves, augmentant leur chance de survie et de reproduction, quand d’autres traits moins favorables tendront à disparaître : c’est la sélection naturelle. Génération après génération, ce long processus a mené à l’apparition sur Terre d’êtres vivants adaptés à leurs environnements.
Depuis près de 60 ans, l’étude scientifique des algorithmes évolutionnaires a pour but de reprendre ces principes d’évolution pour l’optimisation de systèmes ou d’objets artificiels. Un exemple de cas d’usage concret est l’optimisation d’ailes d’avions, où le « génome » caractérise le profil, la longueur et la largeur d’une aile ; et où l’évaluation d’un individu (un modèle d’aile, en l’occurrence) mesure sa résistance, sa portance, et son poids.
La programmation génétique est un domaine scientifique visant à construire des programmes informatiques, dont des IA, en appliquant ces principes évolutifs.
Dans sa version la plus simple, l’« ADN » utilisé pour créer un individu est un ensemble d’instructions ou fonctions mathématiques de base : addition, multiplication, cosinus, etc. Le génome de chaque individu est ainsi une suite d’instructions, appelée programme, qui réalise des calculs sur les données de l’environnement.
Imaginons par exemple que l’on souhaite construire une IA chargée de contrôler un robot. L’IA observe des nombres représentant la position actuelle des différents membres du robot, l’angle de ses articulations, et la vitesse de ces différents éléments. Ces nombres sont utilisés pour exécuter l’individu-programme de l’IA. Les résultats des dernières instructions constituent la réponse de l’IA à cette observation, et sont utilisés pour contrôler les différents moteurs du robot.
Le processus évolutif débute par la création d’une population d’individus en générant de courts programmes aléatoires, une simple addition par exemple. La sélection des meilleurs programmes se fait en gardant les plus aptes à réaliser la tâche voulue, par exemple, faire avancer un robot le plus loin possible. Lors des premières générations, même les meilleurs individus sont généralement très mauvais, mais constituent le capital génétique pour la première phase de reproduction. La reproduction d’un programme peut se faire par croisement, en entremêlant les instructions issues de deux programmes parents ; ou par mutation, en reproduisant un programme existant de manière imparfaite pour ajouter ou retirer une instruction. Ce processus est ainsi répété sur de nombreuses générations, et à l’issue du processus d’évolution, le programme du meilleur individu est conservé pour être utilisé comme IA.
Durant le processus évolutif, le nombre d’instructions, et donc la complexité des programmes s’adapte automatiquement à la difficulté de la tâche à réaliser. En effet, l’ajout de nouvelles instructions aux génomes des individus ne perdure que si elle leur confère de meilleures aptitudes, favorisant leur survie et reproduction. Ainsi, le processus évolutif favorise naturellement l’émergence de programmes avec peu d’instructions, et pourtant bien adaptés à la tâche.
L’utilisation de programmes ainsi construits ne nécessite pas de puce dédiée de type GPU, et peut généralement être réalisée sur des processeurs peu énergivores déjà existants, et donc plus sobres.
Si les réseaux de neurones traditionnels sont capables de réaliser des tâches complexes, leur grande complexité calculatoire rend souvent impossible d’interpréter les causes de leurs bons fonctionnements, ou pire, de leurs erreurs. Là encore, la brièveté des programmes issus du processus évolutif est un atout majeur, puisque cela rend possible l’interprétation claire du fonctionnement de l’IA ainsi créée.
Cette vidéo en présente un exemple, avec un programme créé pour illustrer cet article qui permet de contrôler une jambe robotique, appelé le « hopper ». Usuellement appris avec des réseaux de neurones complexes, l’évolution génétique a permis à une IA d’apprendre à faire avancer la jambe robot en utilisant des instructions très simples pour contrôler chacun des trois moteurs du robot. De fait, comprendre la causalité des actions de l’IA en fonction des observations est possible, et on voit que le programme démontre une grande logique où chaque moteur est principalement contrôlé par des membres proches de celui-ci.
Dans certains domaines applicatifs, les IA plus sobres issues d’un processus évolutif concurrencent les aptitudes des réseaux de neurones pour un centième (voire un millième) de leur coût, par exemple en robotique ou dans l’industrie de la cyberdéfense. Si le coût de ces IA issues du processus évolutif les rend intrinsèquement plus sobres, il faut néanmoins veiller à ce que cette sobriété ne donne pas lieu à un effet rebond, sous forme d’une utilisation encore plus massive de telles IA pour des applications où cela n’est pas strictement nécessaire.
Ce domaine de recherche offre de nombreuses perspectives et défis à la communauté scientifique, dont la petite taille ne peut rivaliser avec les investissements colossaux autour des réseaux de neurones.
Parmi ces défis, le passage à l’échelle des IA issues du processus évolutif qui ne parviennent pas encore à concurrencer les réseaux de neurones sur les tâches les plus complexes, telles que le contrôle de robots humanoïdes, ou le traitement du langage naturel à la base de bots conversationnels.
Le projet foutics est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Karol Desnos a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
Mickaël Dardaillon a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
Quentin Vacher a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
12.05.2026 à 17:01
Thomas Fraise, Postdoctoral research fellow, University of Copenhagen; Sciences Po

In 1983, the film WarGames imagined a teenager who accidentally accessed a Pentagon computer system and triggered a simulation program, subsequently interpreted as the prelude to a nuclear war. The film made such an impression on Ronald Reagan that he asked his advisers whether such an intrusion into America’s most sensitive systems was possible. A week later, the answer came: “Mr. President, the problem is far worse than you think.”
Nuclear weapons policies are based on a series of bets, often far-reaching, on the future of nuclear deterrence. First, nuclear-armed countries gamble that the fear of retaliation will always be enough to prevent an adversary from striking first, and that they will always have the expertise and luck necessary to prevent accidental explosions. They bet that possessing nuclear weapons will remain a source of security rather than insecurity in decades to come.
However, as my colleagues Sterre van Buuren and Benoît Pelopidas and myself demonstrate, there are several plausible future scenarios in which possessing nuclear weapons will generate more real costs than potential benefits in a world that has warmed by several degrees. Maintaining a credible and safe arsenal will require budgetary choices at the expense of other urgent spending made necessary by the climate crisis.
The universe of existential risks that could justify the use of nuclear weapons may also be expanding. For example, experts worry that water shortages in Pakistan and India could become fertile ground for a conflict leading to nuclear escalation.
But there is another, more implicit bet involved here: that nuclear arsenals, which are complex, highly digitalised technological systems, offer no cyber vulnerabilities that could be exploited by an actor seeking to disrupt their normal functioning.
The recent breakthrough of Anthropic’s latest AI model Claude Mythos reveals just how much the conditions of that bet could change in the long term.
“Mythos” was launched on April 7 2026 by the public benefit corporation Anthropic – which markets the Claude series of large language models (LLMs). This model, which has not been commercially released but made available to a restricted working group composed of around a dozen major American tech giants (Google, Microsoft, Apple, NVIDIA, Amazon Web Services, etc.), reportedly achieves an unprecedented success rate in detecting vulnerabilities in computer systems.
Mythos reportedly succeeded in detecting “zero-day” vulnerabilities in various web browsers, software, and operating systems with an impressive success rate.
A “zero-day” vulnerability is a critical security flaw in an information system for which no protection yet exists, making attacks possible with effectively “zero days” available to respond. According to Anthropic, Mythos managed to develop methods for exploiting these vulnerabilities in record time – likely in less than a day – with a success rate of 72.4%.
Although this information comes from the company itself – which has every incentive to exaggerate its results – some public evidence has been provided.
Sylvestre Ledru, Mozilla’s engineering director responsible for the Firefox browser, stated that Mythos helped uncover an “absolutely staggering” number of vulnerabilities in their software. For example, a nearly twenty-seven-year-old security flaw which had survived numerous audits was discovered in an open-source operating system widely used by cybersecurity services, OpenBSD.
Mythos sheds light on a larger phenomenon: that the increase in offensive capabilities – not only among states but also private actors such as cybercriminals – in the cyberspace could be accelerated by AI development, while uncertainty is emerging about whether defensive actors can react quickly enough to patch existing vulnerabilities.
Even if Mythos does not fully live up to the announced performance levels, the development of LLMs since the early 2020s has shown how rapidly their capabilities improve. We are therefore facing an acceleration in the development of offensive capabilities and their diffusion to a broader range of actors. This means a potentially rising probability of successful cyberattacks, as well as an increase in their absolute number.
To understand the vulnerability of nuclear weapons to cyberattacks, one must remember that a “nuclear arsenal” means far more than a stockpile of warheads. The normal operation of modern nuclear arsenals depends on a vast configuration of technologies: nuclear warheads, the missiles capable of delivering them, communication technologies ensuring that orders are transmitted from the President to the operator responsible for launching the weapons, as well as early warning systems designed to monitor the skies for signs of a potential enemy nuclear strike. These elements must communicate with one another to ensure control over the weapons.
And there are more of those than one might think. As Herbert Lin, a Stanford University researcher and author of a study on cyber threats and nuclear weapons, notes, the “nuclear button” metaphor is oversimplified: once the president presses it, a whole series of “cyber-buttons” must also be pressed to trigger and manage nuclear operations – each representing another point where cyberattacks could interfere, for example by preventing critical information from arriving.
The President might not receive enough information – or any at all – to determine that an attack is underway. Or he might be unable to communicate launch orders to submarine forces. Worse still, the nightmare scenario imagined since the 1950s could occur: a false launch order could be transmitted to missile operators.
The scenarios do not even need to be that extreme: the order might be transmitted with delays, or not transmitted to all forces, resulting in weaker retaliation than intended. The retaliation itself might be blocked: in 2010, an American command center lost communication with around fifty nuclear missiles for nearly an hour. An adversary could exploit such weaknesses.
Alternatively, a large-scale cyberattack carried out by non-state actors could create the impression that an adversary is targeting our nuclear arsenal, creating a risk of inadvertent escalation. Similarly, an attack on command-and-control systems related to conventional operations could be interpreted as endangering a state’s nuclear arsenal if those systems happened to be integrated.
One can also imagine cyber operations targeting the weapons themselves – the hardware rather than the software of the arsenal. Of course, nuclear security actors are not simply waiting for attacks to happen. They continuously develop and test defensive capabilities. The problem is that the complexity of existing systems makes it impossible to state with certainty that no vulnerabilities exist.
As James Gosler, formerly in charge of the security of American nuclear systems at Sandia National Laboratories, explains, beginning in the 1980s, the exponential increase in the complexity of components inside nuclear weapons meant that:
“you could no longer make the statement that any of these micro-controlled systems [used to ensure the functioning of the detonation mechanism] were vulnerability-free.”
That does not mean vulnerabilities necessarily exist. But it does mean that no actor can know for certain whether they do. So, should we fear that nuclear arsenals could one day be “hacked”?
In truth, we do not know. Such scenarios are possible: no large, complex information system can be guaranteed with total certainty to be completely reliable. The evolution of cyberattack tools, and their potential diffusion among a wide range of state and non-state actors, makes this kind of future scenario potentially more likely and, in any case, plausible.
Mythos highlights a new dimension to the nuclear gamble, born from the development of new technologies and their integration into nuclear arsenals.
First, we are betting on the absence of vulnerabilities within these systems – even though it is impossible to measure that probability with certainty. It changes over time as systems are updated, replaced, and connected to others. If vulnerabilities nevertheless exist, we then bet that advances in offensive cyber capabilities will always be matched, and matched in time, by advances in defensive capabilities – even in the age of artificial intelligence. Once again, that probability cannot be determined, because defensive capability development is often reactive: it depends on our knowledge of offensive capabilities and existing vulnerabilities, both of which are inherently uncertain.
We are therefore betting that our defences against cyberattacks – and those of other nuclear-armed states – will be enough. Otherwise, we are betting that luck will remain on our side and that existing vulnerabilities will not be discovered – like the one that existed for 27 years in OpenBSD’s code. It is a gamble on luck because, in this scenario, what saves us is the adversary’s inability or unwillingness, over which we have no control, to develop effective capabilities.
The ability of existing control practices to fulfil their role has become more uncertain with the arrival of large AI models capable of detecting vulnerabilities and designing cyberattacks on a massive and automated scale. Choosing a security policy based on nuclear weapons therefore amounts to betting that, in the future just as in the past, luck will always remain on our side.
This work has been supported by the European Research Council Consolidator Grant no. 101043468, RITUAL DETERRENCE. Views and opinions expressed are, however, those of the author only and do not necessarily reflect those of the European Union or the European Research Council.
12.05.2026 à 15:51
Barthélémy Courmont, Directeur du master Histoire -- Relations internationales, Institut catholique de Lille (ICL)
Le contexte de ce sommet bilatéral n’est guère favorable à Donald Trump : son opération en Iran s’enlise, la Cour suprême vient de lui infliger un camouflet sur sa politique de droits de douane et sa popularité est en berne à quelques mois d’élections de mi-mandat cruciales. De quoi, peut-être, l’inciter à initier avec son homologue chinois un de ces grands deals dont il a le secret ?
Retardée pour cause de guerre au Moyen-Orient, la visite officielle de Donald Trump à Pékin et sa rencontre avec son homologue chinois Xi Jinping se déroulent ces 14 et 15 mai.
Depuis le retour de Trump à la Maison-Blanche en janvier 2025, les deux hommes n’ont eu qu’une seule rencontre bilatérale, en marge du sommet de l’APEC à Busan en Corée du Sud, en octobre dernier. Les questions commerciales, chères au président américain, avaient alors été au cœur d’échanges crispés et témoignant de la compétition à grande échelle entre les deux pays, comme ce fut déjà le cas lors de la première administration Trump.
Cet enjeu reste crucial dans la relation Washington-Pékin ; mais s’ajoutent désormais d’autres sujets de discorde.
Le contexte a cependant considérablement changé au cours des derniers mois. Venezuela, Groenland, Iran : dans le domaine de la politique étrangère, Washington s’est engagé depuis le début de l’année dans un aventurisme qui inquiète Pékin, d’autant plus que la Chine semble directement visée, notamment à travers la guerre contre l’Iran, qui a un impact immédiat sur les exportations de pétrole de Téhéran, dont la RPC est le principal destinataire. D’ailleurs, toutes les crises dans lesquelles Washington s’est engagé depuis janvier sont justifiées par une volonté de porter atteinte à Pékin.
Dès lors, Xi Jinping devrait, ces 14 et 15 mai, manifester sa préoccupation face aux instabilités géopolitiques du moment, et inviter son homologue américain à privilégier la retenue et une approche multilatérale prônée par les Nations unies, jusqu’à se positionner lui-même comme une sorte de faiseur de paix — et profitant sur ce point de la vacance du leadership américain dans son rôle de « gendarme du monde ». C’est d’ailleurs dans cette logique que Pékin joue un rôle important dans la médiation que le Pakistan s’efforce de mettre en place sur le dossier iranien et que la RPC soutient avec force.
Xi devrait également aborder la question des sanctions frappant des entreprises chinoises accusées par Washington de maintenir des activités avec Téhéran, qui traduisent les errements de la position américaine sur le conflit au Moyen-Orient, oscillant entre discours apaisant et menaces.
Par ailleurs, contrairement à la situation qui prévalait lors de la rencontre de Busan, la Chine est aujourd’hui en position de force dans la guerre commerciale qui l’oppose à Washington, la Cour suprême et un tribunal fédéral ayant récemment mis l’administration Trump en difficulté sur sa politique douanière. Tout cela se déroule dans un contexte politique marqué par l’impératif, pour Trump, de marquer des points en prévision des élections de mi-mandat de novembre prochain, qui s’annoncent très difficiles pour son camp.
Enfin, parmi les autres fronts sur lesquels Trump souhaite attaquer la Chine figurent les terres rares et les enjeux technologiques, alors que la RPC paraît sur le point de rattraper les États-Unis, notamment dans le domaine de l’intelligence artificielle. La compétition entre les deux pays est désormais multidimensionnelle et, en ouvrant plusieurs fronts simultanément, le président américain la rend incertaine.
Au-delà du règlement du conflit au Moyen-Orient, la Chine aime à se rêver comme une puissance d’équilibre, en mettant en avant son rejet de l’unilatéralisme et la nécessité de relancer un multilatéralisme incarné par les Nations unies. Derrière ce slogan, c’est le rattrapage de l’Occident qui est au cœur de la grande stratégie chinoise, et qui se traduit par un discours, partagé par Moscou et dans une certaine mesure New Delhi, affirmant le déclin de l’Occident.
Mais la Chine reste discrète, d’une part parce que c’est dans sa culture diplomatique (on se souvient notamment que Deng Xiaoping, leader du pays de 1978 à 1989 et encore très influent dans les années 1990, estimait que la RPC devait demeurer en retrait sur la scène internationale), et surtout parce qu’elle n’a aucun intérêt à s’exposer, laissant son principal rival, Washington, s’empêtrer dans des guerres sans fin qui ternissent un peu plus son image et sa crédibilité. Traduisant la pensée de Xi Jinping, le magazine The Economist fit ainsi sa une du 4 avril avec une photo représentant les deux hommes et ce titre moqueur : « N’interrompez jamais votre ennemi quand il fait une erreur. »
Ce discours sur le déclin de l’Occident s’adresse avant tout à la population chinoise, dans l’accompagnement du « rêve chinois » cher à Xi Jinping, afin de la conforter dans l’idée que le retour de la puissance chinoise est en marche, et que le régime en est le principal garant. C’est un enjeu important quand on sait que la montée en puissance de la RPC est confrontée à de nombreuses difficultés (ralentissement de la croissance, crise démographique, enjeux environnementaux, corruption…), et que les critiques, même timides et souvent réduites au silence, ne manquent pas.
Mais c’est aussi le Sud global que vise Pékin, dans une rhétorique qui invite à un remplacement progressif du leadership d’un Occident présenté comme décadent vers un « nouveau monde » incarné par les BRICS et ayant, au sommet, Pékin. Le multilatéralisme promu par la RPC pourrait ainsi être une phase transitoire vers un nouvel ordre mondial.
À lire aussi : Le soft power chinois illustré par les caricatures de « China Daily » : une esquisse de nouvel ordre mondial
Il ne faut surtout pas, dans le monde occidental, sous-estimer la portée de ce discours, que la politique étrangère de Donald Trump et les multiples hésitations de l’Union européenne ne font que renforcer. On le voit notamment dans de nombreuses études qui font état d’un regain de confiance à l’égard de la Chine dans le Sud global, Pékin étant tout simplement vu comme plus responsable que l’Occident et moins susceptible que ce dernier de mettre en œuvre des « doubles standards » à l’égard des pays tiers.
Donald Trump a fait de la relation avec la Chine le principal enjeu de sa politique étrangère. Il s’inscrit en cela dans la continuité de ses prédécesseurs qui, républicains comme démocrates, ont tous manifesté une obsession chinoise depuis un quart de siècle. De « l’endigagement » de Bush Jr. au « pivot » d’Obama, en passant par le développement de partenariats avec les pays de la zone indopacifique, les guerres commerciales, l’insistance sur le piège de Thucydide ou les pressions sur la question des droits de l’homme, la méthode a parfois divergé, mais l’objectif reste le même : empêcher la Chine de devenir la première puissance mondiale.
Du Venezuela à l’Iran, on voit que la stratégie de l’actuel président américain consiste à viser indirectement Pékin et ses approvisionnements, en particulier en s’attaquant à ses partenaires, dans l’espoir de contraindre son rival à de nouveaux accords commerciaux. Mais cette stratégie ne fonctionne pas, et au-delà de belles promesses, Donald Trump rentrera de Pékin les mains vides s’il pense pouvoir contraindre le président chinois à de quelconques concessions, spécialement en ce moment où les États-Unis voient leur influence et leur crédibilité considérablement mises à mal.
Reste un scénario, qui semble plus que jamais envisageable en ce qu’il serait à l’avantage de Pékin et qu’il correspondrait à la stratégie du « deal » de Donald Trump : le grand marchandage (great bargain). Afin de conserver des acquis de plus en plus menacés en Asie-Pacifique, les États-Unis pourraient trouver un accord global avec la Chine sur une sorte de partage de la région. Longtemps jugé tabou à Washington, ce marchandage pourrait être considéré par le locataire de la Maison-Blanche comme un accord gagnant-gagnant. Problème : quelles seraient les lignes démarcation, de la péninsule coréenne à l’Asie du Sud-Est, en passant par Taïwan ?
Plus que jamais, les partenaires de Washington en Asie-Pacifique suivent avec attention et anxiété les positionnements d’un président américain qui a fait de l’imprévisibilité le marqueur de son mandat.
Ce texte a bénéficié du soutien de la Taiwan Fellowship 2026 du Ministry of Foreign Affairs (MOFA), République de Chine (Taïwan).