21.04.2026 à 15:25
Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management
When Amazon Web Services (AWS) went down globally in October 2025, millions of users were abruptly reminded how invisible yet indispensable cloud technology has become.
From banks and hospitals to airlines and retail platforms, entire sectors slowed or came to a standstill. The disruption followed a separate catastrophe earlier in July 2024, when CrowdStrike’s software update grounded operations around the world.
Different companies. Different causes. Yet both events exposed the same uncomfortable truth: the world’s digital infrastructure, the networks, servers and software that underpin nearly every modern service, is far more fragile than we like to believe.
Technically, these were very different failures, but the similarity lies in how quickly they cascaded. A single error in a single company rippled across global systems that had no direct relationship to that company at all.
For years, cloud providers have marketed themselves as the answer to such fragility. Distributed computing, automated backup, and redundant systems are supposed to keep data and services online even when local components fail. However, the cloud model depends heavily on network connectivity and can introduce latency and other vulnerabilities, that mitigates certain failures, but does not eliminate fragility entirely.
As both the AWS and CrowdStrike incidents show, redundancy on paper doesn’t always mean resilience in practice. Many organisations that rely on AWS for critical services also use AWS for their backup, monitoring or authentication. When a core network fails, so do the fail-over mechanisms designed to prevent downtime. In other words, “diversification” often exists only within the same provider’s ecosystem, a classic case of putting all eggs in one digital basket.
At the heart of the issue is cloud concentration. A small number of companies, primarily AWS, Microsoft and Google, now host the majority of the world’s digital infrastructure. Even more when, cloud computing has become the backbone of modern AI by relying on large, centralized data centers that offer substantial processing power and scalability.
Governments, universities, hospitals and even competitors run their critical services on these same platforms. The convenience and cost efficiency are undeniable. But this consolidation has created a structural vulnerability. A single misconfiguration or software flaw in one of these providers can have global consequences, similar to how a major bank failure can destabilise the financial system.
The situation is further complicated by opacity: cloud providers rarely disclose full details of their interdependencies or internal resilience practices. Customers often have no clear map of how their services are distributed, where their data resides, or which other systems they rely on indirectly. When outages happen, even identifying who’s responsible can be a challenge.
What makes these incidents particularly concerning is that they involve private companies running public infrastructure. AWS and CrowdStrike aren’t just serving commercial clients, they underpin hospitals, airports, energy grids and government systems. When they fail, entire ecosystems fail, not just their direct customers. Yet oversight of these critical dependencies remains minimal.
For Europe, these outages turned an abstract “digital sovereignty” debate into a very concrete dependency problem.
Digital sovereignty is about the capacity to ensure that critical data, infrastructure, and AI systems operate under EU rules and remain controllable in crises. This sovereignty framing ties outages to broader issues of jurisdiction (US access to data), trade power, and strategic autonomy for critical sectors, like finance, health, and public administration.
Politically, it responds to dependence on a handful of US hyperscalers who hold over 70% of the European cloud market and are also subject to US laws like the CLOUD Act. On the CLOUD Act side, explanations by EU‑focused providers and analysts emphasise that US‑headquartered cloud firms (including AWS, Microsoft, Google) are subject to the Clarifying Lawful Overseas Use of Data Act, which can compel disclosure of data stored in European data centers.
Cloud and AI sovereignty frameworks address where and under which law sensitive data and workloads run, and how easily European users can exit, port, or reconfigure in the face of outages or geopolitical shocks.
Recent European initiatives explicitly treat hyperscalers and major Information and Communication Technology (ICT) providers as systemic infrastructure, not just vendors.
Under the Digital Operational Resilience Act (DORA), in force since 2025, EU financial regulators can designate “critical third party ICT service providers” and subject them to direct oversight to reduce systemic risk.
EU debates on cloud now emphasise exit, portability, and multi‑cloud architectures, arguing that resilience depends less on “more providers” and more on avoiding structural lock‑in that makes switching or redundancy impossible in practice. DORA addresses who runs critical digital infrastructure for finance and how the European Union can oversee and stress test them as systemic actors.
The Cyber Resilience Act (CRA), in force since December 2024, is the EU’s way of hard wiring “resilience by design” into the entire stack of connected hardware and software that underpins Europe’s digital infrastructure.
CRA addresses what characteristics all networked digital products must have so they do not import unmanageable cyber risk or opaque vulnerability handling into the EU.
The NIS2 (Directive (EU) 2022/2555 came into effect in January 2023 and required transposition into national law by October 2024, expanding from NIS1’s narrow scope to cover medium/large entities in energy, transport, health, finance, digital infrastructure (including cloud), public administration, manufacturing, and more. NIS2 operationalises sovereignty at the entity level: critical operators must align their practices with EU standards, even when relying on non-EU providers, creating a harmonised resilience baseline across the single market. It integrates with CRA, DORA, and cloud initiatives by requiring entities to demand equivalent resilience from suppliers, closing gaps in the dependency chain.
Beyond regulations, the Commission is building practical sovereignty tools around cloud and AI.
A [“Cloud Sovereignty Framework”](https://ec.europa.eu/commission/presscorner/detail/en/ip_26_833 tender (up to €180 million for 6 years), launched in 2025 and awarded in April 2026 to Luxembourg’s Post Telecom, Germany’s StackIT, French Iliad’s data centre unit Scaleway and Belgium’s Proximus, sets concrete sovereignty criteria, strategic, legal, operational, environmental, supply chain transparency, openness, security, and EU law compliance, for cloud services procured by EU institutions.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Christine Abdalla Mikhaeil est membre de l'Association for Information Systems (AIS).
21.04.2026 à 12:51
Ivette Caldelas, Investigadora Senior, UDIT - Universidad de Diseño, Innovación y Tecnología
Juan Pablo Ochoa Romo, PhD candidate, Universidad Nacional Autónoma de México (UNAM)
Ana María Salazar Martínez, Researcher, Universidad Nacional Autónoma de México (UNAM)
Erika Navarrete Monroy, M. Sc., Universidad Nacional Autónoma de México (UNAM)

Des données récentes suggèrent que le bébé reçoit, par le lait maternel, un écosystème microbien, et notamment certaines bactéries bénéfiques qui s’avèrent essentielles à son développement en particulier au niveau immunitaire. Plutôt que de faire peser la responsabilité sur les seules mères, ces recherches doivent inspirer des politiques publiques pour les accompagner, au bénéfice des nourrissons.
Nous savons que le lait maternel est l’aliment idéal pour les nouveau-nés grâce à l’équilibre subtil de ses composants : il contient des micro et macronutriments, des facteurs immunitaires et de croissance, ainsi que des hormones indispensables au bon développement des nourrissons à chaque étape de leur croissance.
À lire aussi : Le colostrum, premier lait maternel : bénéfices, méconnaissance et croyances
Cependant, des études récentes révèlent quelque chose de bien plus profond : le lait ne se contente pas de nourrir, il transmet également un écosystème vivant au bébé. Il contient des bactéries, des métabolites et des composés bioactifs qui peuvent façonner la santé du nouveau-né dès ses premiers jours de vie. Ces découvertes pourraient transformer notre compréhension de la pédiatrie moderne.
Il y a encore un peu plus d’une décennie, selon l’idée dominante, le lait maternel était considéré comme un aliment stérile ; toute présence bactérienne était considérée comme une contamination. Cependant, des études de séquençage à grande échelle menées sur des échantillons de lait provenant de diverses espèces ont démontré que le lait contient des communautés microbiennes complexes. Parmi celles-ci, on peut citer les bactéries appartenant aux genres Bifidobacterium sp., Lactobacillus sp. et Streptococcus sp., qui sont étroitement liées à la colonisation saine de l’intestin néonatal.
Ce transfert bactérien intervient à un moment critique, quand le développement du système immunitaire du nouveau-né dépend en grande partie de la modulation immunitaire apportée par le lait maternel. Ce microbiote apporté par la mère joue un rôle important dans la maturation de la barrière intestinale, la régulation de l’inflammation et la programmation métabolique du nouveau-né.
En d’autres termes, le lait maternel n’apporte pas seulement des calories : il contribue également au développement du système immunitaire.
Des données récentes mettent en évidence un phénomène fascinant, que les scientifiques ont baptisé « voie entéro-mammaire ». Grâce à ce mécanisme, certaines bactéries présentes dans l’intestin maternel seraient capables de migrer vers la glande mammaire, où les cellules immunitaires joueraient le rôle de transporteurs.
À lire aussi : Dialogue autour du microbiote : comment la mère et le bébé communiquent à travers le lait maternel
Si cela venait à être pleinement confirmé – les résultats obtenus dans les modèles animaux et les études chez l’humain soutiennent de plus en plus cette hypothèse-, cela signifierait que le microbiome intestinal maternel serait capable d’influencer directement celui présent dans le lait maternel. Et cela soulève une question inévitable : quel rôle joue réellement l’alimentation maternelle ?
Il ne fait aucun doute que la composition du microbiome intestinal est étroitement liée à l’alimentation. Plusieurs études ont démontré qu’une alimentation riche en fibres, en fruits, en légumes et en légumineuses favorise une plus grande diversité microbienne et la production d’acides gras à chaîne courte. Ces derniers favorisent la perméabilité intestinale et ont des effets anti-inflammatoires.
À l’inverse, les régimes riches en sucres raffinés ou en graisses sont associés à une moindre diversité bactérienne, à une présence réduite de bactéries bénéfiques ou à une augmentation des bactéries pathogènes. Cela entraîne un déséquilibre dans la production de métabolites, ce qui favorise le développement d’inflammations et de complications métaboliques.
Certaines études scientifiques indiquent une corrélation entre la qualité de l’alimentation de la mère et la composition bactérienne du lait, ainsi qu’avec la présence de certains métabolites lipidiques et immunomodulateurs. Il a également été établi que la consommation d’acides gras oméga-3 peut influencer le profil inflammatoire et, éventuellement, la communauté microbienne transmise au nourrisson.
À l’heure actuelle, il n’existe pas encore de recommandations cliniques fondées sur le microbiome du lait. Cependant, le consensus scientifique tend à indiquer que l’alimentation maternelle peut avoir des effets qui vont au-delà des aspects nutritionnels, car elle pourrait également moduler le premier écosystème intestinal du bébé et influencer son développement et sa santé tout au long de sa vie.
Plus précisément, la colonisation intestinale précoce peut avoir un impact sur le risque ultérieur d’allergies, d’obésité, de maladies métaboliques et même de troubles neurocomportementales.
Des études longitudinales (menées sur la durée) suggèrent que les premiers mois de vie constituent une période critique de programmation biologique. Cela ne signifie pas que l’allaitement est le seul facteur déterminant : d’autres facteurs tels que le type d’accouchement, le recours à des d’antibiotiques, l’environnement familial et les déterminants sociaux de santé ont également une influence décisive. Néanmoins, cela implique le fait que nous sommes face à un aspect de l’allaitement qui, jusqu’à présent, avait été clairement sous-estimé.
La pédiatrie moderne qui, traditionnellement, se concentrait uniquement sur des aspects tels que la nutrition et la croissance, commence à intégrer une perspective écologique. Selon cette approche, le bébé n’est plus un organisme isolé : il doit désormais être considéré comme un métaorganisme qui cohabite avec des milliards de microorganismes. Il existe un dialogue bidirectionnel entre le nouveau-né et le microbiote grâce à la production de molécules spécifiques qui ont un impact sur son développement et sur le fait que le bébé soit en bonne santé ou déclare une maladie. Et ce mécanisme commence à peine à être élucidé.
Ces nouvelles données autour de la composition du microbiote dans le lait maternel ne doivent pas devenir une nouvelle source de pression sur les mères : toutes ne peuvent pas allaiter et toutes n’ont pas accès à une alimentation équilibrée. Si la science confirme que la qualité nutritionnelle de la mère influence directement la colonisation microbienne du nouveau-né, la réponse ne peut être une responsabilité individuelle. Elle doit plutôt se traduire par des politiques facilitant l’accès des femmes en âge de procréer à une alimentation saine, ainsi que par un soutien à l’allaitement et des environnements de travail compatibles avec la maternité.
Sans aucun doute, investir dans la santé maternelle, c’est aussi investir dans la santé infantile. Et désormais, nous savons que cet investissement doit également tenir compte de l’alimentation de la mère. L’invisible – c’est-à-dire les bactéries, les métabolites et l’interaction entre l’alimentation et le microbiome – pourrait bien redéfinir la médecine de demain.
Juan Pablo Ochoa Romo a reçu des financements du secrétariat dédié aux sciences, aux sciences humaines, à la technologie et à l'innovation (SECITHI/Mexique).
Ana María Salazar Martínez, Erika Navarrete Monroy et Ivette Caldelas ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
21.04.2026 à 12:50
Barthélémy Courmont, Directeur du master Histoire -- Relations internationales, Institut catholique de Lille (ICL)
Cet article, qui constitue la suite d’une première réflexion publiée récemment et intitulée « “Guerre asymétrique” : une formule récente pour un phénomène plurimillénaire », présente les deux principales visions qui s’opposent sur la notion de « guerre asymétrique ». L’une y voit un effort du plus faible pour égaler le plus fort ; l’autre, une tentative de l’affaiblir. Un débat qui, en tout état de cause, oblige à repenser la guerre.
Dès lors que la guerre asymétrique ne se résume plus au seul constat que le rapport de force entre deux belligérants est déséquilibré, mais implique des stratégies de contournement, elle s’impose comme un concept employé par les états-majors, par les gouvernements, et par les observateurs. Mais tous ne définissent pas ce concept de la même façon, loin de là. Les déboires de Washington au Moyen-Orient depuis fin février nous le rappellent. Deux grandes définitions radicalement différentes se sont de fait imposées dans le débat.
Toutes deux partent du principe que la guerre asymétrique est une stratégie du faible au fort. La première, cependant, tend à considérer qu’elle traduit une tentative du faible de hausser son niveau de nuisance pour se mettre au niveau du fort. La seconde, quant à elle, estime qu’il convient de parler de guerre asymétrique lorsque le faible cherche à accentuer le décalage qui le sépare du fort pour en tirer un avantage. L’intérêt de ces deux approches est qu’elles tirent des conclusions presque opposées de leur perception d’un conflit opposant le fort et le faible.
Dans les cercles stratégiques aux États-Unis, l’asymétrie est généralement considérée comme un effort du faible afin d’accroître à moindres frais sa capacité de nuisance, au point de se positionner comme l’égal du puissant. Les armes de destruction massive (ADM) entre les mains d’États faibles, ou éventuellement de groupes armés non étatiques, sont ainsi perçues comme une composante asymétrique de l’arsenal dont disposent ces États, puisqu’elles leur permettent d’accéder à un niveau de dangerosité qu’ils ne sauraient atteindre en se contentant des moyens conventionnels.
Cette approche de la guerre asymétrique, décrite dans de nombreux travaux qui nous ramènent aux fameux États voyous et à « l’Axe du Mal » désigné par Washington au début des années 2000, s’est développée en marge des interrogations sur les risques liés à la prolifération des ADM et s’applique parfaitement à ces États comme la Corée du Nord, qui disposent de ressources très limitées mais qui cherchent, en se procurant des capacités nucléaires, à hausser leur niveau de puissance de manière disproportionnée. Dans le cas des acteurs non étatiques, le scénario d’un terrorisme par ADM est le plus souvent évoqué pour illustrer ce risque. Dans ce cas, la guerre asymétrique se traduirait par un effort du faible en vue de se mettre au niveau du fort et d’équilibrer par le haut les capacités dont il dispose.
À l’opposé de cette réflexion s’impose l’idée selon laquelle l’asymétrie, quelle que soit sa forme, est le privilège du faible, qui cherche à vaincre le plus puissant en contournant les moyens qui assurent sa supériorité.
Selon Steven Metz et Douglas Johnson, les acteurs asymétriques « agissent, s’organisent et pensent différemment afin de maximiser leurs propres avantages, exploiter les faiblesses de l’adversaire, détenir l’initiative ou gagner une liberté d’action plus importante. L’asymétrie peut inclure des méthodes, des technologies, des valeurs, des modes d’organisation, des échéanciers différents ou une combinaison de ces derniers ».
Face aux puissances qui ne peuvent outrepasser un ensemble de règles morales et d’engagements internationaux qu’elles ont cautionnés et qui, d’une certaine manière, interdisent certaines pratiques, les États faibles et, plus encore, les groupes armés non étatiques bénéficient d’une plus grande liberté d’action. Ce qui n’est pas permis aux démocraties l’est aux dictatures, et ce que ne peuvent faire des forces armées organisées, des groupes dispersés se le permettent sans états d’âme. Ainsi, dans le cas du conflit en Iran, les dirigeants des États-Unis ne peuvent pas se permettre d’ignorer l’hostilité croissante de leur opinion publique à l’égard de la guerre, tandis que leurs homologues iraniens ne se préoccupent pas de ce que pensent leurs propres citoyens.
Cette marge de manœuvre du faible, plus ou moins importante, définit la faille dans laquelle il peut déployer sa stratégie de contournement. Cette stratégie, qui s’appuie sur une multitude de tactiques, consiste à empêcher le fort de faire usage de sa puissance, ou rendre cette dernière inefficace. L’utilisation systématique de leurres, la guerre en milieu urbain, les attaques par surprise ou l’impossible identification de forces armées (par exemple en semant la confusion entre militaires et civils) sont autant de techniques de guerre asymétrique qui permettent au faible d’optimiser ses chances de succès à la fois en semant la confusion chez le fort et en réduisant au maximum les capacités de riposte de ce dernier.
Cette approche de la guerre asymétrique trouve également un écho dans les travaux sur la cyberguerre et la possibilité pour le faible de paralyser le fort à l’aide de moyens limités. Ici, la guerre asymétrique se traduit donc par un effort visant à affaiblir le fort, et donc à équilibrer le rapport de forces par le bas.
Si elles sont totalement différentes dans la méthode, ces deux approches de la guerre asymétrique peuvent être menées conjointement, ce qui est d’ailleurs souvent le cas. On relève ainsi de la part du faible une tendance à vouloir se faire plus puissant et dans le même temps un effort visant à affaiblir le fort.
Si l’asymétrie est clairement identifiée comme une stratégie du faible au fort, celle-ci ne peut se développer que dans un contexte particulier, une situation adéquate résultant des agissements du fort. La marge de manœuvre du faible est ainsi étroitement associée à l’attitude du fort qui porte, en certaines circonstances, une grande responsabilité de par ses mauvais choix et de ses certitudes mises à mal et exploitées par le faible. Ce sont ses actions qui délimitent les contours de la guerre asymétrique, et ses erreurs qui en déterminent le plus souvent l’issue. L’absence de stratégie clairement définie, comme c’est le cas dans la campagne militaire américaine contre l’Iran, en offre une démonstration saisissante.
Le politologue américain Christopher J. Fettweis identifie dans son livre The Pathologies of Power quatre pathologies, qui, selon lui, sont à l’origine des croyances qui poussent les dirigeants des grandes puissances (son étude est consacrée aux États-Unis) à prendre des décisions irrationnelles : la peur, l’honneur, la gloire et l’hubris.
Inscrites dans la lignée des travaux sur la perception de Robert Jervis, ces pathologies aveuglent les grandes puissances dans leur appréciation des enjeux sécuritaires. L’hubris, qui est une manifestation d’arrogance, est pour Fettweis, à la fois la plus prévisible et la plus importante des pathologies du fort.
À différentes périodes de l’histoire des États-Unis, des études poussées sur l’arrogance du pouvoir furent publiées comme une mise en garde face au risque d’unilatéralisme, à un excès de confiance parfois inapproprié, et à un messianisme que Barry Buzan qualifiait en 2004 dans The United States and the Great Powers de « syndrome de l’empire du milieu ». Fettweis juge que l’hubris est inquiétant, car il « peut s’imposer face à ce qui semble être les signes les plus évidents ». Il n’est également pas inscrit dans un courant de pensée en particulier, et menace tous ceux qui croient en un messianisme.
L’arrogance du puissant est alimentée par ses succès passés et par un sentiment de supériorité que lui offrent des moyens techniques et des capacités d’entraînement très largement supérieurs à ceux de ses adversaires potentiels. Cela peut faire croire à un chef des armées peu au fait de l’hubris que la victoire est facilitée par le déséquilibre des forces en présence, et se résume à une « excursion ». On pourrait ajouter à ces pathologies la difficulté pour le fort de reculer une fois qu’il est engagé dans un conflit, au risque de perdre toute crédibilité. Là encore, le cas américain est très éclairant.
Quels peuvent être les remèdes à ces pathologies, s’interroge Fettweis ? D’abord que le patient accepte le diagnostic, car « s’il ne fait aucun doute que les États-Unis sont un bon pays, il fait occasionnellement de mauvais choix ». Prendre la mesure des erreurs de jugement, de la réalité de la puissance américaine (et non de sa vision fantasmée), faire preuve de patience et à l’instar des recommandations d’Hans Morgenthau dans Politics Among Nations, se souvenir que la prudence est « la vertu suprême en politique ».
Les conseils de Fettweis s’inscrivent dans la tradition de l’école réaliste et privilégient un plus grand pragmatisme. Ils sonnent également contre une nécessaire mise en garde contre un sentiment de supériorité qui s’appuie sur les avantages matériels dont le fort bénéficie face au faible, mais qui ne doivent pas être jugés suffisants en toute circonstance.
Reste une question trop souvent occultée dans les réflexions sur la guerre asymétrique : peut-on, dans la position du faible, remporter une guerre contre un plus puissant ? Si les acteurs asymétriques sont en mesure de perturber la puissance, à tel point qu’il est possible de les assimiler à des « armes de perturbation massive », tant leur complexité rend difficile leur neutralisation, la question est de savoir s’ils ont la capacité de porter un coup fatal dont le puissant ne pourrait se relever.
A priori, cette hypothèse est exclue. Le plus grand danger pour le puissant viendrait plutôt de la réponse à apporter aux attaques des acteurs asymétriques, sans faire montre d’arrogance, sans se reposer de manière systématique sur la supériorité des arsenaux, et sans oublier le décalage qui distingue le fort du faible dans les objectifs d’un conflit.
Si les déséquilibres capacitaires sont au cœur des travaux sur la guerre asymétrique, la différence entre le fort et le faible dans les objectifs dans un conflit armé doit ainsi être prise en compte pour comprendre le décalage, et en tirer les conclusions qui s’imposent.
La survie du fort étant rarement en jeu – a fortiori quand il est opposé au faible – les conflits dans lesquels il est généralement engagé sont de faible intensité, sur des théâtres extérieurs, avec des objectifs relativement limités, à tel point qu’on parle souvent d’opérations plus que de guerre. Le faible est de son côté confronté à sa propre survie, au point que tout conflit armé devient pour lui une guerre totale.
Ce décalage dans les objectifs est particulièrement éclairant pour comprendre l’engagement des forces de part et d’autre, la mobilisation sociétale ou encore l’accent mis sur certaines pratiques, qui sont parfois sans limite du côté du faible. Conséquence de ce décalage, la définition de la victoire varie très fortement entre le fort et le faible, tout autant que la mise en œuvre des moyens permettant d’y parvenir.
Profondément inscrite dans l’histoire, la guerre asymétrique offre une autre lecture des conflits. Sa place dans les guerres contemporaines est la conséquence directe de la recherche de dissymétrie par les puissances. À partir du moment où les grandes puissances se reposent quasi exclusivement sur la technologie, et cherchent à obtenir un avantage sur leurs adversaires avant même le début des hostilités, ceux qui leur sont hostiles ont le choix entre accepter la défaite – en se lançant dans une confrontation directe dont ils ne peuvent sortir vainqueurs – ou au contraire faire usage de stratégies de contournement afin de résister, et ainsi perturber les plus puissants.
La multiplication des acteurs asymétriques au cours des dernières années s’explique par ailleurs tant par un sentiment de frustration perceptible dans la plupart des régions du globe – ce sentiment convergeant généralement vers Washington et l’Occident – que par le vide laissé par des innovations technologiques trop rapides et mal adaptées aux conflits contemporains.
Les capacités d’aujourd’hui sont le résultat de programmes souvent engagés dans les années 1960, c’est-à-dire à une époque où mettre l’accent sur les capacités technologiques était nécessaire afin de ne pas être en désavantage face à la puissance de l’autre. D’autant que cet « autre » était alors le reflet du miroir, la guerre froide étant sans doute la période la plus symétrique en termes de rapports de forces, méritant pleinement le qualificatif d’« équilibre de la terreur » que les capacités nucléaires assuraient.
Avec la fin de la bipolarité, un tel postulat doit être corrigé, car il n’offre pas de réponse appropriée aux acteurs asymétriques, ni au nécessaire appel au génie pour compenser la faiblesse des nouveaux adversaires. On voit notamment que l’usage de plus en plus répété des drones, plus rudimentaires et surtout beaucoup moins chers que les missiles perfectionnés, perturbe les plans stratégiques.
En ce sens, la guerre asymétrique est un rappel à l’ordre pour le fort, qui doit comprendre que les conflits ne sont jamais gagnés à l’avance. La supériorité logistique ne se traduit par la victoire que si elle sait s’adapter aux spécificités propres à chaque conflit, et au profil des acteurs identifiés comme faibles. La guerre asymétrique impose tout simplement de repenser la guerre, sans quoi elle s’imposera comme la norme dans les conflits futurs.
Barthélémy Courmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.