13.05.2026 à 09:40
Karol Desnos, Maître de conférences à l'Institut d'Electronique et des Technologies du numérique, INSA Rennes
Mickaël Dardaillon, Maître de conférence en informatique embarquée, INSA Rennes
Quentin Vacher, Doctorant en Intelligence Artificielle Evolutionnaire, INSA Rennes
Les systèmes d’IA sont souvent critiqués pour leur grande consommation énergétique — à tel point que l’on se demande quelle production électrique va alimenter les data centers dont la construction est prévue à travers le monde. Mais des systèmes d’intelligence artificielle plus sobres existent. Certains s’inspirent de la stratégie évolutionniste de la nature afin d’arriver à une solution la plus simple possible pour un problème donné.
Les principes de sélection naturelle théorisés par Charles Darwin ont permis l’évolution d’êtres vivants remarquablement adaptés à leurs environnements. Le cerveau humain est un exemple remarquable de résultat de cette évolution, ne consommant qu’une vingtaine de watts, soit près de 1000 fois moins qu’une intelligence artificielle le surpassant au jeu de Go. En reproduisant informatiquement ces principes évolutifs, il est possible de construire des intelligences artificielles (IA) plus sobres.
Les progrès fulgurants des IA durant cette dernière décennie sont majoritairement dus à l’utilisation des réseaux de neurones artificiels, dits « profonds », capables d’apprendre efficacement des tâches très diverses. Seulement, l’exécution d’un tel réseau requiert la réalisation de plusieurs millions à plusieurs milliards d’opérations mathématiques par un ordinateur ; et plus la complexité d’une tâche est grande, plus la taille du réseau nécessaire pour la réaliser sera grande également.
L’utilisation massive de réseaux de neurones profonds, toujours plus imposants pour en augmenter les capacités pose un problème de soutenabilité majeur. En effet, ces réseaux nécessitent des ressources naturelles et une énergie croissantes : il faut produire, alimenter et refroidir les processeurs exécutant ces calculs, notamment les GPU.
Pour répondre à ce défi de soutenabilité, il est nécessaire de proposer des technologies d’IA alternatives adaptant naturellement leur complexité à celle de la tâche accomplie pour être plus sobres.
Les approches évolutives pour l’apprentissage d’IA offrent une alternative crédible aux réseaux de neurones profonds, en étant plus sobres tout en restant performantes. En effet, contrairement aux réseaux de neurones dont la taille est fixée par un développeur avant l’entraînement, l’approche évolutive construit une IA dont la taille s’adapte minimalement à une tâche spécifique. Le résultat est une IA d’une complexité calculatoire de plusieurs centaines à milliers de fois inférieure aux réseaux de neurones, et donc naturellement plus sobre.
La sélection naturelle et l’évolution reposent sur trois éléments essentiels : des individus définis par un génome, un mécanisme de reproduction, et un processus de sélection.
En biologie, le génome de chaque être vivant est construit en assemblant des briques de bases communes à une large diversité d’espèces : l’ADN. Le génome d’un être le caractérise en tant qu’individu, déterminant bon nombre de ses traits : forme, physiologie, taille, couleurs ; et le prédispose à certains comportements, tels que la course ou la nage.
Le mécanisme de reproduction permet à un ou plusieurs individus de donner naissance à de nouveaux individus, en copiant et en mélangeant leurs génomes. Cette copie, parfois imparfaite, crée un nouvel individu qui possède son propre génome, lui conférant des traits ressemblant à ceux de ses parents, mais possédant ses propres caractéristiques.
Un ensemble d’individus forme une population, qui existe dans un milieu où ils sont constamment évalués par des mises à l’épreuve : recherche de nutriments, survie en milieu hostile, recherche de partenaire de reproduction. Certains traits vont rendre des individus plus performants pour ces épreuves, augmentant leur chance de survie et de reproduction, quand d’autres traits moins favorables tendront à disparaître : c’est la sélection naturelle. Génération après génération, ce long processus a mené à l’apparition sur Terre d’êtres vivants adaptés à leurs environnements.
Depuis près de 60 ans, l’étude scientifique des algorithmes évolutionnaires a pour but de reprendre ces principes d’évolution pour l’optimisation de systèmes ou d’objets artificiels. Un exemple de cas d’usage concret est l’optimisation d’ailes d’avions, où le « génome » caractérise le profil, la longueur et la largeur d’une aile ; et où l’évaluation d’un individu (un modèle d’aile, en l’occurrence) mesure sa résistance, sa portance, et son poids.
La programmation génétique est un domaine scientifique visant à construire des programmes informatiques, dont des IA, en appliquant ces principes évolutifs.
Dans sa version la plus simple, l’« ADN » utilisé pour créer un individu est un ensemble d’instructions ou fonctions mathématiques de base : addition, multiplication, cosinus, etc. Le génome de chaque individu est ainsi une suite d’instructions, appelée programme, qui réalise des calculs sur les données de l’environnement.
Imaginons par exemple que l’on souhaite construire une IA chargée de contrôler un robot. L’IA observe des nombres représentant la position actuelle des différents membres du robot, l’angle de ses articulations, et la vitesse de ces différents éléments. Ces nombres sont utilisés pour exécuter l’individu-programme de l’IA. Les résultats des dernières instructions constituent la réponse de l’IA à cette observation, et sont utilisés pour contrôler les différents moteurs du robot.
Le processus évolutif débute par la création d’une population d’individus en générant de courts programmes aléatoires, une simple addition par exemple. La sélection des meilleurs programmes se fait en gardant les plus aptes à réaliser la tâche voulue, par exemple, faire avancer un robot le plus loin possible. Lors des premières générations, même les meilleurs individus sont généralement très mauvais, mais constituent le capital génétique pour la première phase de reproduction. La reproduction d’un programme peut se faire par croisement, en entremêlant les instructions issues de deux programmes parents ; ou par mutation, en reproduisant un programme existant de manière imparfaite pour ajouter ou retirer une instruction. Ce processus est ainsi répété sur de nombreuses générations, et à l’issue du processus d’évolution, le programme du meilleur individu est conservé pour être utilisé comme IA.
Durant le processus évolutif, le nombre d’instructions, et donc la complexité des programmes s’adapte automatiquement à la difficulté de la tâche à réaliser. En effet, l’ajout de nouvelles instructions aux génomes des individus ne perdure que si elle leur confère de meilleures aptitudes, favorisant leur survie et reproduction. Ainsi, le processus évolutif favorise naturellement l’émergence de programmes avec peu d’instructions, et pourtant bien adaptés à la tâche.
L’utilisation de programmes ainsi construits ne nécessite pas de puce dédiée de type GPU, et peut généralement être réalisée sur des processeurs peu énergivores déjà existants, et donc plus sobres.
Si les réseaux de neurones traditionnels sont capables de réaliser des tâches complexes, leur grande complexité calculatoire rend souvent impossible d’interpréter les causes de leurs bons fonctionnements, ou pire, de leurs erreurs. Là encore, la brièveté des programmes issus du processus évolutif est un atout majeur, puisque cela rend possible l’interprétation claire du fonctionnement de l’IA ainsi créée.
Cette vidéo en présente un exemple, avec un programme créé pour illustrer cet article qui permet de contrôler une jambe robotique, appelé le « hopper ». Usuellement appris avec des réseaux de neurones complexes, l’évolution génétique a permis à une IA d’apprendre à faire avancer la jambe robot en utilisant des instructions très simples pour contrôler chacun des trois moteurs du robot. De fait, comprendre la causalité des actions de l’IA en fonction des observations est possible, et on voit que le programme démontre une grande logique où chaque moteur est principalement contrôlé par des membres proches de celui-ci.
Dans certains domaines applicatifs, les IA plus sobres issues d’un processus évolutif concurrencent les aptitudes des réseaux de neurones pour un centième (voire un millième) de leur coût, par exemple en robotique ou dans l’industrie de la cyberdéfense. Si le coût de ces IA issues du processus évolutif les rend intrinsèquement plus sobres, il faut néanmoins veiller à ce que cette sobriété ne donne pas lieu à un effet rebond, sous forme d’une utilisation encore plus massive de telles IA pour des applications où cela n’est pas strictement nécessaire.
Ce domaine de recherche offre de nombreuses perspectives et défis à la communauté scientifique, dont la petite taille ne peut rivaliser avec les investissements colossaux autour des réseaux de neurones.
Parmi ces défis, le passage à l’échelle des IA issues du processus évolutif qui ne parviennent pas encore à concurrencer les réseaux de neurones sur les tâches les plus complexes, telles que le contrôle de robots humanoïdes, ou le traitement du langage naturel à la base de bots conversationnels.
Le projet foutics est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Karol Desnos a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
Mickaël Dardaillon a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
Quentin Vacher a reçu des financements de l'Agence Nationale de la Recherche (ANR) au titre du projet ANR-22-CE25-0005-01.
12.05.2026 à 17:01
Thomas Fraise, Postdoctoral research fellow, University of Copenhagen; Sciences Po

In 1983, the film WarGames imagined a teenager who accidentally accessed a Pentagon computer system and triggered a simulation program, subsequently interpreted as the prelude to a nuclear war. The film made such an impression on Ronald Reagan that he asked his advisers whether such an intrusion into America’s most sensitive systems was possible. A week later, the answer came: “Mr. President, the problem is far worse than you think.”
Nuclear weapons policies are based on a series of bets, often far-reaching, on the future of nuclear deterrence. First, nuclear-armed countries gamble that the fear of retaliation will always be enough to prevent an adversary from striking first, and that they will always have the expertise and luck necessary to prevent accidental explosions. They bet that possessing nuclear weapons will remain a source of security rather than insecurity in decades to come.
However, as my colleagues Sterre van Buuren and Benoît Pelopidas and myself demonstrate, there are several plausible future scenarios in which possessing nuclear weapons will generate more real costs than potential benefits in a world that has warmed by several degrees. Maintaining a credible and safe arsenal will require budgetary choices at the expense of other urgent spending made necessary by the climate crisis.
The universe of existential risks that could justify the use of nuclear weapons may also be expanding. For example, experts worry that water shortages in Pakistan and India could become fertile ground for a conflict leading to nuclear escalation.
But there is another, more implicit bet involved here: that nuclear arsenals, which are complex, highly digitalised technological systems, offer no cyber vulnerabilities that could be exploited by an actor seeking to disrupt their normal functioning.
The recent breakthrough of Anthropic’s latest AI model Claude Mythos reveals just how much the conditions of that bet could change in the long term.
“Mythos” was launched on April 7 2026 by the public benefit corporation Anthropic – which markets the Claude series of large language models (LLMs). This model, which has not been commercially released but made available to a restricted working group composed of around a dozen major American tech giants (Google, Microsoft, Apple, NVIDIA, Amazon Web Services, etc.), reportedly achieves an unprecedented success rate in detecting vulnerabilities in computer systems.
Mythos reportedly succeeded in detecting “zero-day” vulnerabilities in various web browsers, software, and operating systems with an impressive success rate.
A “zero-day” vulnerability is a critical security flaw in an information system for which no protection yet exists, making attacks possible with effectively “zero days” available to respond. According to Anthropic, Mythos managed to develop methods for exploiting these vulnerabilities in record time – likely in less than a day – with a success rate of 72.4%.
Although this information comes from the company itself – which has every incentive to exaggerate its results – some public evidence has been provided.
Sylvestre Ledru, Mozilla’s engineering director responsible for the Firefox browser, stated that Mythos helped uncover an “absolutely staggering” number of vulnerabilities in their software. For example, a nearly twenty-seven-year-old security flaw which had survived numerous audits was discovered in an open-source operating system widely used by cybersecurity services, OpenBSD.
Mythos sheds light on a larger phenomenon: that the increase in offensive capabilities – not only among states but also private actors such as cybercriminals – in the cyberspace could be accelerated by AI development, while uncertainty is emerging about whether defensive actors can react quickly enough to patch existing vulnerabilities.
Even if Mythos does not fully live up to the announced performance levels, the development of LLMs since the early 2020s has shown how rapidly their capabilities improve. We are therefore facing an acceleration in the development of offensive capabilities and their diffusion to a broader range of actors. This means a potentially rising probability of successful cyberattacks, as well as an increase in their absolute number.
To understand the vulnerability of nuclear weapons to cyberattacks, one must remember that a “nuclear arsenal” means far more than a stockpile of warheads. The normal operation of modern nuclear arsenals depends on a vast configuration of technologies: nuclear warheads, the missiles capable of delivering them, communication technologies ensuring that orders are transmitted from the President to the operator responsible for launching the weapons, as well as early warning systems designed to monitor the skies for signs of a potential enemy nuclear strike. These elements must communicate with one another to ensure control over the weapons.
And there are more of those than one might think. As Herbert Lin, a Stanford University researcher and author of a study on cyber threats and nuclear weapons, notes, the “nuclear button” metaphor is oversimplified: once the president presses it, a whole series of “cyber-buttons” must also be pressed to trigger and manage nuclear operations – each representing another point where cyberattacks could interfere, for example by preventing critical information from arriving.
The President might not receive enough information – or any at all – to determine that an attack is underway. Or he might be unable to communicate launch orders to submarine forces. Worse still, the nightmare scenario imagined since the 1950s could occur: a false launch order could be transmitted to missile operators.
The scenarios do not even need to be that extreme: the order might be transmitted with delays, or not transmitted to all forces, resulting in weaker retaliation than intended. The retaliation itself might be blocked: in 2010, an American command center lost communication with around fifty nuclear missiles for nearly an hour. An adversary could exploit such weaknesses.
Alternatively, a large-scale cyberattack carried out by non-state actors could create the impression that an adversary is targeting our nuclear arsenal, creating a risk of inadvertent escalation. Similarly, an attack on command-and-control systems related to conventional operations could be interpreted as endangering a state’s nuclear arsenal if those systems happened to be integrated.
One can also imagine cyber operations targeting the weapons themselves – the hardware rather than the software of the arsenal. Of course, nuclear security actors are not simply waiting for attacks to happen. They continuously develop and test defensive capabilities. The problem is that the complexity of existing systems makes it impossible to state with certainty that no vulnerabilities exist.
As James Gosler, formerly in charge of the security of American nuclear systems at Sandia National Laboratories, explains, beginning in the 1980s, the exponential increase in the complexity of components inside nuclear weapons meant that:
“you could no longer make the statement that any of these micro-controlled systems [used to ensure the functioning of the detonation mechanism] were vulnerability-free.”
That does not mean vulnerabilities necessarily exist. But it does mean that no actor can know for certain whether they do. So, should we fear that nuclear arsenals could one day be “hacked”?
In truth, we do not know. Such scenarios are possible: no large, complex information system can be guaranteed with total certainty to be completely reliable. The evolution of cyberattack tools, and their potential diffusion among a wide range of state and non-state actors, makes this kind of future scenario potentially more likely and, in any case, plausible.
Mythos highlights a new dimension to the nuclear gamble, born from the development of new technologies and their integration into nuclear arsenals.
First, we are betting on the absence of vulnerabilities within these systems – even though it is impossible to measure that probability with certainty. It changes over time as systems are updated, replaced, and connected to others. If vulnerabilities nevertheless exist, we then bet that advances in offensive cyber capabilities will always be matched, and matched in time, by advances in defensive capabilities – even in the age of artificial intelligence. Once again, that probability cannot be determined, because defensive capability development is often reactive: it depends on our knowledge of offensive capabilities and existing vulnerabilities, both of which are inherently uncertain.
We are therefore betting that our defences against cyberattacks – and those of other nuclear-armed states – will be enough. Otherwise, we are betting that luck will remain on our side and that existing vulnerabilities will not be discovered – like the one that existed for 27 years in OpenBSD’s code. It is a gamble on luck because, in this scenario, what saves us is the adversary’s inability or unwillingness, over which we have no control, to develop effective capabilities.
The ability of existing control practices to fulfil their role has become more uncertain with the arrival of large AI models capable of detecting vulnerabilities and designing cyberattacks on a massive and automated scale. Choosing a security policy based on nuclear weapons therefore amounts to betting that, in the future just as in the past, luck will always remain on our side.
This work has been supported by the European Research Council Consolidator Grant no. 101043468, RITUAL DETERRENCE. Views and opinions expressed are, however, those of the author only and do not necessarily reflect those of the European Union or the European Research Council.
12.05.2026 à 15:51
Barthélémy Courmont, Directeur du master Histoire -- Relations internationales, Institut catholique de Lille (ICL)
Le contexte de ce sommet bilatéral n’est guère favorable à Donald Trump : son opération en Iran s’enlise, la Cour suprême vient de lui infliger un camouflet sur sa politique de droits de douane et sa popularité est en berne à quelques mois d’élections de mi-mandat cruciales. De quoi, peut-être, l’inciter à initier avec son homologue chinois un de ces grands deals dont il a le secret ?
Retardée pour cause de guerre au Moyen-Orient, la visite officielle de Donald Trump à Pékin et sa rencontre avec son homologue chinois Xi Jinping se déroulent ces 14 et 15 mai.
Depuis le retour de Trump à la Maison-Blanche en janvier 2025, les deux hommes n’ont eu qu’une seule rencontre bilatérale, en marge du sommet de l’APEC à Busan en Corée du Sud, en octobre dernier. Les questions commerciales, chères au président américain, avaient alors été au cœur d’échanges crispés et témoignant de la compétition à grande échelle entre les deux pays, comme ce fut déjà le cas lors de la première administration Trump.
Cet enjeu reste crucial dans la relation Washington-Pékin ; mais s’ajoutent désormais d’autres sujets de discorde.
Le contexte a cependant considérablement changé au cours des derniers mois. Venezuela, Groenland, Iran : dans le domaine de la politique étrangère, Washington s’est engagé depuis le début de l’année dans un aventurisme qui inquiète Pékin, d’autant plus que la Chine semble directement visée, notamment à travers la guerre contre l’Iran, qui a un impact immédiat sur les exportations de pétrole de Téhéran, dont la RPC est le principal destinataire. D’ailleurs, toutes les crises dans lesquelles Washington s’est engagé depuis janvier sont justifiées par une volonté de porter atteinte à Pékin.
Dès lors, Xi Jinping devrait, ces 14 et 15 mai, manifester sa préoccupation face aux instabilités géopolitiques du moment, et inviter son homologue américain à privilégier la retenue et une approche multilatérale prônée par les Nations unies, jusqu’à se positionner lui-même comme une sorte de faiseur de paix — et profitant sur ce point de la vacance du leadership américain dans son rôle de « gendarme du monde ». C’est d’ailleurs dans cette logique que Pékin joue un rôle important dans la médiation que le Pakistan s’efforce de mettre en place sur le dossier iranien et que la RPC soutient avec force.
Xi devrait également aborder la question des sanctions frappant des entreprises chinoises accusées par Washington de maintenir des activités avec Téhéran, qui traduisent les errements de la position américaine sur le conflit au Moyen-Orient, oscillant entre discours apaisant et menaces.
Par ailleurs, contrairement à la situation qui prévalait lors de la rencontre de Busan, la Chine est aujourd’hui en position de force dans la guerre commerciale qui l’oppose à Washington, la Cour suprême et un tribunal fédéral ayant récemment mis l’administration Trump en difficulté sur sa politique douanière. Tout cela se déroule dans un contexte politique marqué par l’impératif, pour Trump, de marquer des points en prévision des élections de mi-mandat de novembre prochain, qui s’annoncent très difficiles pour son camp.
Enfin, parmi les autres fronts sur lesquels Trump souhaite attaquer la Chine figurent les terres rares et les enjeux technologiques, alors que la RPC paraît sur le point de rattraper les États-Unis, notamment dans le domaine de l’intelligence artificielle. La compétition entre les deux pays est désormais multidimensionnelle et, en ouvrant plusieurs fronts simultanément, le président américain la rend incertaine.
Au-delà du règlement du conflit au Moyen-Orient, la Chine aime à se rêver comme une puissance d’équilibre, en mettant en avant son rejet de l’unilatéralisme et la nécessité de relancer un multilatéralisme incarné par les Nations unies. Derrière ce slogan, c’est le rattrapage de l’Occident qui est au cœur de la grande stratégie chinoise, et qui se traduit par un discours, partagé par Moscou et dans une certaine mesure New Delhi, affirmant le déclin de l’Occident.
Mais la Chine reste discrète, d’une part parce que c’est dans sa culture diplomatique (on se souvient notamment que Deng Xiaoping, leader du pays de 1978 à 1989 et encore très influent dans les années 1990, estimait que la RPC devait demeurer en retrait sur la scène internationale), et surtout parce qu’elle n’a aucun intérêt à s’exposer, laissant son principal rival, Washington, s’empêtrer dans des guerres sans fin qui ternissent un peu plus son image et sa crédibilité. Traduisant la pensée de Xi Jinping, le magazine The Economist fit ainsi sa une du 4 avril avec une photo représentant les deux hommes et ce titre moqueur : « N’interrompez jamais votre ennemi quand il fait une erreur. »
Ce discours sur le déclin de l’Occident s’adresse avant tout à la population chinoise, dans l’accompagnement du « rêve chinois » cher à Xi Jinping, afin de la conforter dans l’idée que le retour de la puissance chinoise est en marche, et que le régime en est le principal garant. C’est un enjeu important quand on sait que la montée en puissance de la RPC est confrontée à de nombreuses difficultés (ralentissement de la croissance, crise démographique, enjeux environnementaux, corruption…), et que les critiques, même timides et souvent réduites au silence, ne manquent pas.
Mais c’est aussi le Sud global que vise Pékin, dans une rhétorique qui invite à un remplacement progressif du leadership d’un Occident présenté comme décadent vers un « nouveau monde » incarné par les BRICS et ayant, au sommet, Pékin. Le multilatéralisme promu par la RPC pourrait ainsi être une phase transitoire vers un nouvel ordre mondial.
À lire aussi : Le soft power chinois illustré par les caricatures de « China Daily » : une esquisse de nouvel ordre mondial
Il ne faut surtout pas, dans le monde occidental, sous-estimer la portée de ce discours, que la politique étrangère de Donald Trump et les multiples hésitations de l’Union européenne ne font que renforcer. On le voit notamment dans de nombreuses études qui font état d’un regain de confiance à l’égard de la Chine dans le Sud global, Pékin étant tout simplement vu comme plus responsable que l’Occident et moins susceptible que ce dernier de mettre en œuvre des « doubles standards » à l’égard des pays tiers.
Donald Trump a fait de la relation avec la Chine le principal enjeu de sa politique étrangère. Il s’inscrit en cela dans la continuité de ses prédécesseurs qui, républicains comme démocrates, ont tous manifesté une obsession chinoise depuis un quart de siècle. De « l’endigagement » de Bush Jr. au « pivot » d’Obama, en passant par le développement de partenariats avec les pays de la zone indopacifique, les guerres commerciales, l’insistance sur le piège de Thucydide ou les pressions sur la question des droits de l’homme, la méthode a parfois divergé, mais l’objectif reste le même : empêcher la Chine de devenir la première puissance mondiale.
Du Venezuela à l’Iran, on voit que la stratégie de l’actuel président américain consiste à viser indirectement Pékin et ses approvisionnements, en particulier en s’attaquant à ses partenaires, dans l’espoir de contraindre son rival à de nouveaux accords commerciaux. Mais cette stratégie ne fonctionne pas, et au-delà de belles promesses, Donald Trump rentrera de Pékin les mains vides s’il pense pouvoir contraindre le président chinois à de quelconques concessions, spécialement en ce moment où les États-Unis voient leur influence et leur crédibilité considérablement mises à mal.
Reste un scénario, qui semble plus que jamais envisageable en ce qu’il serait à l’avantage de Pékin et qu’il correspondrait à la stratégie du « deal » de Donald Trump : le grand marchandage (great bargain). Afin de conserver des acquis de plus en plus menacés en Asie-Pacifique, les États-Unis pourraient trouver un accord global avec la Chine sur une sorte de partage de la région. Longtemps jugé tabou à Washington, ce marchandage pourrait être considéré par le locataire de la Maison-Blanche comme un accord gagnant-gagnant. Problème : quelles seraient les lignes démarcation, de la péninsule coréenne à l’Asie du Sud-Est, en passant par Taïwan ?
Plus que jamais, les partenaires de Washington en Asie-Pacifique suivent avec attention et anxiété les positionnements d’un président américain qui a fait de l’imprévisibilité le marqueur de son mandat.
Ce texte a bénéficié du soutien de la Taiwan Fellowship 2026 du Ministry of Foreign Affairs (MOFA), République de Chine (Taïwan).