21.04.2026 à 12:50
Barthélémy Courmont, Directeur du master Histoire -- Relations internationales, Institut catholique de Lille (ICL)
Cet article, qui constitue la suite d’une première réflexion publiée récemment et intitulée « “Guerre asymétrique” : une formule récente pour un phénomène plurimillénaire », présente les deux principales visions qui s’opposent sur la notion de « guerre asymétrique ». L’une y voit un effort du plus faible pour égaler le plus fort ; l’autre, une tentative de l’affaiblir. Un débat qui, en tout état de cause, oblige à repenser la guerre.
Dès lors que la guerre asymétrique ne se résume plus au seul constat que le rapport de force entre deux belligérants est déséquilibré, mais implique des stratégies de contournement, elle s’impose comme un concept employé par les états-majors, par les gouvernements, et par les observateurs. Mais tous ne définissent pas ce concept de la même façon, loin de là. Les déboires de Washington au Moyen-Orient depuis fin février nous le rappellent. Deux grandes définitions radicalement différentes se sont de fait imposées dans le débat.
Toutes deux partent du principe que la guerre asymétrique est une stratégie du faible au fort. La première, cependant, tend à considérer qu’elle traduit une tentative du faible de hausser son niveau de nuisance pour se mettre au niveau du fort. La seconde, quant à elle, estime qu’il convient de parler de guerre asymétrique lorsque le faible cherche à accentuer le décalage qui le sépare du fort pour en tirer un avantage. L’intérêt de ces deux approches est qu’elles tirent des conclusions presque opposées de leur perception d’un conflit opposant le fort et le faible.
Dans les cercles stratégiques aux États-Unis, l’asymétrie est généralement considérée comme un effort du faible afin d’accroître à moindres frais sa capacité de nuisance, au point de se positionner comme l’égal du puissant. Les armes de destruction massive (ADM) entre les mains d’États faibles, ou éventuellement de groupes armés non étatiques, sont ainsi perçues comme une composante asymétrique de l’arsenal dont disposent ces États, puisqu’elles leur permettent d’accéder à un niveau de dangerosité qu’ils ne sauraient atteindre en se contentant des moyens conventionnels.
Cette approche de la guerre asymétrique, décrite dans de nombreux travaux qui nous ramènent aux fameux États voyous et à « l’Axe du Mal » désigné par Washington au début des années 2000, s’est développée en marge des interrogations sur les risques liés à la prolifération des ADM et s’applique parfaitement à ces États comme la Corée du Nord, qui disposent de ressources très limitées mais qui cherchent, en se procurant des capacités nucléaires, à hausser leur niveau de puissance de manière disproportionnée. Dans le cas des acteurs non étatiques, le scénario d’un terrorisme par ADM est le plus souvent évoqué pour illustrer ce risque. Dans ce cas, la guerre asymétrique se traduirait par un effort du faible en vue de se mettre au niveau du fort et d’équilibrer par le haut les capacités dont il dispose.
À l’opposé de cette réflexion s’impose l’idée selon laquelle l’asymétrie, quelle que soit sa forme, est le privilège du faible, qui cherche à vaincre le plus puissant en contournant les moyens qui assurent sa supériorité.
Selon Steven Metz et Douglas Johnson, les acteurs asymétriques « agissent, s’organisent et pensent différemment afin de maximiser leurs propres avantages, exploiter les faiblesses de l’adversaire, détenir l’initiative ou gagner une liberté d’action plus importante. L’asymétrie peut inclure des méthodes, des technologies, des valeurs, des modes d’organisation, des échéanciers différents ou une combinaison de ces derniers ».
Face aux puissances qui ne peuvent outrepasser un ensemble de règles morales et d’engagements internationaux qu’elles ont cautionnés et qui, d’une certaine manière, interdisent certaines pratiques, les États faibles et, plus encore, les groupes armés non étatiques bénéficient d’une plus grande liberté d’action. Ce qui n’est pas permis aux démocraties l’est aux dictatures, et ce que ne peuvent faire des forces armées organisées, des groupes dispersés se le permettent sans états d’âme. Ainsi, dans le cas du conflit en Iran, les dirigeants des États-Unis ne peuvent pas se permettre d’ignorer l’hostilité croissante de leur opinion publique à l’égard de la guerre, tandis que leurs homologues iraniens ne se préoccupent pas de ce que pensent leurs propres citoyens.
Cette marge de manœuvre du faible, plus ou moins importante, définit la faille dans laquelle il peut déployer sa stratégie de contournement. Cette stratégie, qui s’appuie sur une multitude de tactiques, consiste à empêcher le fort de faire usage de sa puissance, ou rendre cette dernière inefficace. L’utilisation systématique de leurres, la guerre en milieu urbain, les attaques par surprise ou l’impossible identification de forces armées (par exemple en semant la confusion entre militaires et civils) sont autant de techniques de guerre asymétrique qui permettent au faible d’optimiser ses chances de succès à la fois en semant la confusion chez le fort et en réduisant au maximum les capacités de riposte de ce dernier.
Cette approche de la guerre asymétrique trouve également un écho dans les travaux sur la cyberguerre et la possibilité pour le faible de paralyser le fort à l’aide de moyens limités. Ici, la guerre asymétrique se traduit donc par un effort visant à affaiblir le fort, et donc à équilibrer le rapport de forces par le bas.
Si elles sont totalement différentes dans la méthode, ces deux approches de la guerre asymétrique peuvent être menées conjointement, ce qui est d’ailleurs souvent le cas. On relève ainsi de la part du faible une tendance à vouloir se faire plus puissant et dans le même temps un effort visant à affaiblir le fort.
Si l’asymétrie est clairement identifiée comme une stratégie du faible au fort, celle-ci ne peut se développer que dans un contexte particulier, une situation adéquate résultant des agissements du fort. La marge de manœuvre du faible est ainsi étroitement associée à l’attitude du fort qui porte, en certaines circonstances, une grande responsabilité de par ses mauvais choix et de ses certitudes mises à mal et exploitées par le faible. Ce sont ses actions qui délimitent les contours de la guerre asymétrique, et ses erreurs qui en déterminent le plus souvent l’issue. L’absence de stratégie clairement définie, comme c’est le cas dans la campagne militaire américaine contre l’Iran, en offre une démonstration saisissante.
Le politologue américain Christopher J. Fettweis identifie dans son livre The Pathologies of Power quatre pathologies, qui, selon lui, sont à l’origine des croyances qui poussent les dirigeants des grandes puissances (son étude est consacrée aux États-Unis) à prendre des décisions irrationnelles : la peur, l’honneur, la gloire et l’hubris.
Inscrites dans la lignée des travaux sur la perception de Robert Jervis, ces pathologies aveuglent les grandes puissances dans leur appréciation des enjeux sécuritaires. L’hubris, qui est une manifestation d’arrogance, est pour Fettweis, à la fois la plus prévisible et la plus importante des pathologies du fort.
À différentes périodes de l’histoire des États-Unis, des études poussées sur l’arrogance du pouvoir furent publiées comme une mise en garde face au risque d’unilatéralisme, à un excès de confiance parfois inapproprié, et à un messianisme que Barry Buzan qualifiait en 2004 dans The United States and the Great Powers de « syndrome de l’empire du milieu ». Fettweis juge que l’hubris est inquiétant, car il « peut s’imposer face à ce qui semble être les signes les plus évidents ». Il n’est également pas inscrit dans un courant de pensée en particulier, et menace tous ceux qui croient en un messianisme.
L’arrogance du puissant est alimentée par ses succès passés et par un sentiment de supériorité que lui offrent des moyens techniques et des capacités d’entraînement très largement supérieurs à ceux de ses adversaires potentiels. Cela peut faire croire à un chef des armées peu au fait de l’hubris que la victoire est facilitée par le déséquilibre des forces en présence, et se résume à une « excursion ». On pourrait ajouter à ces pathologies la difficulté pour le fort de reculer une fois qu’il est engagé dans un conflit, au risque de perdre toute crédibilité. Là encore, le cas américain est très éclairant.
Quels peuvent être les remèdes à ces pathologies, s’interroge Fettweis ? D’abord que le patient accepte le diagnostic, car « s’il ne fait aucun doute que les États-Unis sont un bon pays, il fait occasionnellement de mauvais choix ». Prendre la mesure des erreurs de jugement, de la réalité de la puissance américaine (et non de sa vision fantasmée), faire preuve de patience et à l’instar des recommandations d’Hans Morgenthau dans Politics Among Nations, se souvenir que la prudence est « la vertu suprême en politique ».
Les conseils de Fettweis s’inscrivent dans la tradition de l’école réaliste et privilégient un plus grand pragmatisme. Ils sonnent également contre une nécessaire mise en garde contre un sentiment de supériorité qui s’appuie sur les avantages matériels dont le fort bénéficie face au faible, mais qui ne doivent pas être jugés suffisants en toute circonstance.
Reste une question trop souvent occultée dans les réflexions sur la guerre asymétrique : peut-on, dans la position du faible, remporter une guerre contre un plus puissant ? Si les acteurs asymétriques sont en mesure de perturber la puissance, à tel point qu’il est possible de les assimiler à des « armes de perturbation massive », tant leur complexité rend difficile leur neutralisation, la question est de savoir s’ils ont la capacité de porter un coup fatal dont le puissant ne pourrait se relever.
A priori, cette hypothèse est exclue. Le plus grand danger pour le puissant viendrait plutôt de la réponse à apporter aux attaques des acteurs asymétriques, sans faire montre d’arrogance, sans se reposer de manière systématique sur la supériorité des arsenaux, et sans oublier le décalage qui distingue le fort du faible dans les objectifs d’un conflit.
Si les déséquilibres capacitaires sont au cœur des travaux sur la guerre asymétrique, la différence entre le fort et le faible dans les objectifs dans un conflit armé doit ainsi être prise en compte pour comprendre le décalage, et en tirer les conclusions qui s’imposent.
La survie du fort étant rarement en jeu – a fortiori quand il est opposé au faible – les conflits dans lesquels il est généralement engagé sont de faible intensité, sur des théâtres extérieurs, avec des objectifs relativement limités, à tel point qu’on parle souvent d’opérations plus que de guerre. Le faible est de son côté confronté à sa propre survie, au point que tout conflit armé devient pour lui une guerre totale.
Ce décalage dans les objectifs est particulièrement éclairant pour comprendre l’engagement des forces de part et d’autre, la mobilisation sociétale ou encore l’accent mis sur certaines pratiques, qui sont parfois sans limite du côté du faible. Conséquence de ce décalage, la définition de la victoire varie très fortement entre le fort et le faible, tout autant que la mise en œuvre des moyens permettant d’y parvenir.
Profondément inscrite dans l’histoire, la guerre asymétrique offre une autre lecture des conflits. Sa place dans les guerres contemporaines est la conséquence directe de la recherche de dissymétrie par les puissances. À partir du moment où les grandes puissances se reposent quasi exclusivement sur la technologie, et cherchent à obtenir un avantage sur leurs adversaires avant même le début des hostilités, ceux qui leur sont hostiles ont le choix entre accepter la défaite – en se lançant dans une confrontation directe dont ils ne peuvent sortir vainqueurs – ou au contraire faire usage de stratégies de contournement afin de résister, et ainsi perturber les plus puissants.
La multiplication des acteurs asymétriques au cours des dernières années s’explique par ailleurs tant par un sentiment de frustration perceptible dans la plupart des régions du globe – ce sentiment convergeant généralement vers Washington et l’Occident – que par le vide laissé par des innovations technologiques trop rapides et mal adaptées aux conflits contemporains.
Les capacités d’aujourd’hui sont le résultat de programmes souvent engagés dans les années 1960, c’est-à-dire à une époque où mettre l’accent sur les capacités technologiques était nécessaire afin de ne pas être en désavantage face à la puissance de l’autre. D’autant que cet « autre » était alors le reflet du miroir, la guerre froide étant sans doute la période la plus symétrique en termes de rapports de forces, méritant pleinement le qualificatif d’« équilibre de la terreur » que les capacités nucléaires assuraient.
Avec la fin de la bipolarité, un tel postulat doit être corrigé, car il n’offre pas de réponse appropriée aux acteurs asymétriques, ni au nécessaire appel au génie pour compenser la faiblesse des nouveaux adversaires. On voit notamment que l’usage de plus en plus répété des drones, plus rudimentaires et surtout beaucoup moins chers que les missiles perfectionnés, perturbe les plans stratégiques.
En ce sens, la guerre asymétrique est un rappel à l’ordre pour le fort, qui doit comprendre que les conflits ne sont jamais gagnés à l’avance. La supériorité logistique ne se traduit par la victoire que si elle sait s’adapter aux spécificités propres à chaque conflit, et au profil des acteurs identifiés comme faibles. La guerre asymétrique impose tout simplement de repenser la guerre, sans quoi elle s’imposera comme la norme dans les conflits futurs.
Barthélémy Courmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2026 à 12:49
Sanae Okamoto, Senior Researcher in Behavioural Science and Psychology, United Nations University - Maastricht Economic and Social Research Institute on Innovation and Technology (UNU-MERIT), United Nations University
Nidhi Nagabhatla, Senior Research Fellow and Cluster Coordinator Institute on Comparative Regional Integration Studies (UNU-CRIS) and Adj Prof McMaster University, Canada, United Nations University
Robert Oakes, Senior Researcher, Institute for Environment and Human Security (UNU-EHS), United Nations University

Plutôt que de se focaliser sur ce qui ne va pas, l’éducation au climat peut aider les enfants à se demander ce qu’ils peuvent faire. En cultivant leur agentivité, c’est-à-dire leur capacité à être maîtres de leur existence, et leur esprit critique, elle peut faire émerger une génération prête à agir pour un avenir plus durable.
Les enfants sont ceux qui ont le moins de prise sur l’avenir de la planète, mais ils seront aussi parmi les plus touchés par ses transformations. Ils peuvent ainsi ressentir le poids psychologique de ce que l’on appelle le « fossé de la futilité » : le sentiment que les actions individuelles n’ont guère de sens face à l’inaction plus large de la société face à la crise climatique.
Dans ce contexte, il est essentiel de favoriser une agentivité psychologique saine – c’est-à-dire la conviction que nous avons prise sur notre propre vie. Des leviers existent pour agir contre la crise climatique. Les enfants doivent être accompagnés afin qu’ils ne perdent pas espoir.
Avec notre collègue Kariũki Werũ, nous avons élaboré un guide expliquant comment les adultes peuvent soutenir le développement psychologique sain des enfants.
Notre approche reconnaît la gravité du changement climatique tout en ancrant les enfants dans l’espoir. L’objectif est de transformer les sentiments d’impuissance en sentiment d’efficacité personnelle – la conviction qu’ils peuvent agir.
Pour protéger le bien-être émotionnel des enfants tout en abordant les réalités du climat, les adultes doivent aussi apprendre à parler du changement climatique avec les enfants. Cela suppose d’écouter les enfants, d’apprendre avec eux et d’utiliser un langage adapté à leur âge et à leur capacité de compréhension. Les écoles et les communautés pourraient également aider les parents en proposant des conseils pour mener ces conversations.
Surveiller l’activité en ligne d’un enfant peut aussi le protéger d’informations traumatisantes. Les parents peuvent mettre l’accent sur les progrès et les solutions, et aider leurs enfants à passer du temps à observer et apprécier l’évolution de la météo et de leur environnement.
Les écoles, les méthodes pédagogiques ainsi que les relations des enfants avec leurs enseignants et leurs camarades jouent un rôle central dans le développement de leur agentivité psychologique. Renforcer leur résilience face au changement climatique pourrait passer par un dépassement de l’apprentissage traditionnel fondé sur la mémorisation, au profit d’une « éducation critique au climat » adaptée à leur âge.
L’objectif est de donner aux élèves les moyens de questionner les systèmes existants et d’imaginer des transformations profondes, plutôt que de se sentir vaincus par l’ordre établi.
L’apprentissage en plein air, au contact de la nature, peut également renforcer ce développement. Il peut à la fois améliorer la santé mentale et transformer des notions abstraites liées au climat en expériences concrètes. Apprendre dehors peut favoriser des discussions plus constructives sur le climat et établir un lien direct entre les actions humaines, l’environnement et les solutions durables. Les observations sur le terrain et les projets d’enquête permettent ainsi de combler l’écart entre l’apprentissage et l’action.
L’apprentissage du climat par l’intermédiaire des outils numériques constitue un puissant levier pour l’éducation contemporaine. Il offre des perspectives interactives et globales sur la crise climatique. Mais il doit être encadré afin de limiter les effets des « bulles de filtres » sur Internet – lorsque les algorithmes ne montrent aux utilisateurs que des informations correspondant à leurs intérêts passés. Ce phénomène peut isoler les enfants et les submerger de contenus répétitifs qui nuisent à leur bien-être.
Utilisés correctement, les outils numériques peuvent au contraire élargir la perspective des enfants sur les solutions face au changement climatique au-delà de leur environnement local.
Une éducation climatique efficace peut associer apprentissage numérique et expériences concrètes sur le terrain. Lorsqu’elle est accompagnée par des enseignants et des adultes qui jouent un rôle de guides – tout en laissant aux enfants l’espace nécessaire pour explorer et créer de manière autonome – ceux-ci peuvent bénéficier d’une éducation à la fois réaliste et équilibrée. Des programmes pionniers combinent déjà les sciences enseignées en classe, les outils numériques et des expérimentations en extérieur afin de transformer les idées des élèves en projets concrets au service de leur communauté.
À une échelle plus large, l’éducation au climat doit aussi combler l’écart entre responsabilité individuelle et pouvoir collectif. Le récit autour du climat devrait passer de la question « Qu’est-ce qui ne va pas ? » à « Que pouvons-nous faire ? » Ce changement peut donner aux enfants un sentiment d’agir sur le monde plutôt que de nourrir leur anxiété climatique. Les réseaux sociaux constituent un espace clé où cette évolution peut se produire.
Lorsqu’ils sont utilisés avec l’accompagnement d’adultes et une bonne éducation aux médias numériques, ces outils peuvent favoriser des dialogues constructifs et des actions fondées sur des données. Un usage modéré et positif des outils numériques peut aider les enfants à relier leur propre prise de conscience au monde qui les entoure et à encourager des actions à une échelle plus large pour réellement faire face à la crise climatique.
À terme, cela peut permettre aux enfants de partager leurs connaissances sur le changement climatique et d’inspirer des actions au sein de leur famille et de leur entourage. Ils peuvent ainsi devenir des acteurs influents à l’école et dans leur communauté.
Pour faire face à la crise climatique tout en préservant le bien-être des jeunes, il est essentiel d’aider les enfants à reconnaître leur capacité d’agir. Ils peuvent devenir des acteurs du changement, capables de lutter contre la désinformation et de développer une résilience psychologique durable.
Les écoles peuvent travailler avec les familles, les communautés et les responsables publics pour créer un environnement favorable à l’apprentissage du climat. Une telle approche pourrait combler l’écart entre les connaissances scientifiques sur le climat et les expériences vécues, en apportant le soutien émotionnel et les compétences pratiques nécessaires pour donner aux générations du climat les moyens de construire ensemble un avenir durable.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.04.2026 à 12:47
Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School

OpenAI, the creator of ChatGPT, is gearing up to launch its Initial Public Offerings (IPO) this year. This financial manoeuvre would represent a pivotal shift for a project originally designed for the “common good” towards a market-driven logic. Established in 2015, OpenAI started out amidst growing anxiety regarding artificial intelligence (AI). Founded by Sam Altman and Elon Musk, the tech company adopted a non-profit structure and made no secret of its goal to develop AI that is “beneficial to humanity” and prevent it from remaining in the hands of a few dominant players.
This ambition distinguished it from tech giants like Google, Microsoft, Meta, and Amazon, which were built on proprietary models and rent-seeking effects.
In contrast, OpenAI intended to champion general public interest by emphasising open research and sharing knowledge. However, this orientation – symbolised by its name – quickly collided with a structural constraint: the astronomical cost of generative AI.
Unlike traditional software, where marginal costs tend towards zero (for example, the millionth copy of Windows costs Microsoft nothing), generative AI requires massive infrastructure.
Every interaction mobilises computing resources, energy, and specialised equipment. A standard ChatGPT query, consisting of one question and one answer, costs between $0.01 and $0.10. Similarly, generating a high-definition image can cost between $0.10 and $0.20. While these amounts seem negligible in isolation, they become staggering when scaled to the billions of daily queries seen in 2026.
This is explained by the underlying infrastructure, particularly the Graphics Processing Units (GPUs) supplied by players like Nvidia. These chips can cost tens of thousands of dollars to purchase and several dollars per hour via cloud access.
OpenAI, like its competitors, depends on tens of thousands of these GPUs running continuously in massive data centers. According to some estimates,the necessary investments will reach hundreds of billions by the end of this decade.
As early as the late 2010s, it became clear that a purely non-profit model could not meet such capital intensity. This is why OpenAI adopted a hybrid status in 2019, allowing it to raise funds while maintaining control through a foundation. It was a first foray into the market economy, albeit one tempered by the ambition to resist investor demands.
However, at the end of 2022, the chatbot ChatGPT radically changed the game, attracting 100 million users in just two months, before surpassing 900 million weekly users by early 2026.
OpenAI’s revenue surged from approximately $200 million (€173.15 million) in 2022 to over $10 billion (€8.65 billion) in 2025 – a sixty-fold increase in three years.
This exponential growth was accompanied by the implementation of a business model with multiple revenue streams. For individuals, OpenAI offers paid subscriptions (ranging from $20 to $200 per month). However, the bulk of the revenue comes from enterprises, via subscriptions priced between $25 and $60 per user per month. A company with 10,000 employees thus represents several million dollars in annual revenue.
OpenAI additionally bills for the use of its models by companies that integrate them directly into their own solutions. Every use is metered, often on a massive scale. An application processing a million queries a day can generate tens of thousands of dollars in monthly billing.
Finally, a growing portion of revenue comes from strategic agreements, notably with Microsoft, which integrates OpenAI technologies into its products under the Copilot brand.
It is the sum of these flows – subscriptions, licences, third-party usage, and partnerships – that allowed OpenAI to reach approximately $1 billion in monthly revenue in 2025. Yet, this commercial rise masks an intrinsic economic fragility.
Despite sharply rising revenues, OpenAI remains structurally loss-making. In the first half of 2025, the company reportedly generated approximately $4.3 billion in revenue while recording losses between $7 billion and $13 billion – more than $2 billion in losses every month. In total, cumulative losses could exceed $140 billion (€121.19 billion) between 2024 and 2029.
This drift is explained by the very nature of OpenAI’s business model, where every interaction incurs a cost alongside gargantuan necessary investments. Beyond infrastructure, Research and Development (R&D) is a major expense. To stay in the technological race against an increasingly competitive environment, OpenAI reportedly invested nearly $16 billion in R&D in 2025 alone.
To this is added the cost of human resources, which is sometimes extraordinary. While base salaries for the most in-demand AI experts range from $250,000 - $700,000 per year, their total compensation – including stock and bonuses – frequently exceeds $1 million. In some cases, annual compensation even exceeds $10 million. Here again, bidding wars from competitors like Meta force OpenAI to match these offers for fear of seeing its key talent vanish.
In short, OpenAI’s business is not enough to cover its costs, to the point that some analysts suggest that at this rate, it could be forced to file for bankruptcy as early as 2027. Recourse to external financing is therefore indispensable to cover these losses.
To sustain its growth, OpenAI has already raised approximately $58 billion since its inception, including more than $13 billion from Microsoft. In 2025, an exceptional funding round reportedly raised up to $40 billion more, pushing its valuation to several hundred billion dollars.
At the end of March 2026, a new $122 billion funding round – notably involving Amazon ($50 billion), Nvidia, and SoftBank ($30 billion each) – brought the valuation to $852 billion (€737.6 billion). Yet, these amounts remain insufficient given the requirements.
Dependency on industrial partners appears particularly problematic. Microsoft provides OpenAI with its cloud infrastructure via Azure, while Nvidia plays a key role upstream by providing GPUs. Much like the Gold Rush era, when shovel sellers grew rich at the expense of prospectors, it is the infrastructure providers in the AI sector making a fortune, not the model designers.
In practice, every AI query generates revenue for infrastructure providers, amounting to a form of “invisible tax” captured upstream.
In 2025, Nvidia generated nearly $73 billion in net profit on approximately $130 billion in revenue, and its stock market valuation is 1.5 times higher than the entire Paris stock exchange!
OpenAI’s economic tensions have spilled over into its corporate governance. The hybridisation of a public interest mission with private financing mechanisms resulted in a complex structure. A non-profit foundation controls a for-profit “public benefit corporation”, which is funded by investors and tasked with raising capital and developing activities – all while theoretically remaining subordinate to the foundation’s public interest mission. This construction, designed to avoid purely financial logic, quickly fuelled tensions between different stakeholders.
Elon Musk’s departure in 2018 was the first signal of a strategic disagreement. In 2020, several researchers left OpenAI to found Anthropic, citing differences over safety and governance. However, it was primarily the crisis of November 2023 that fully revealed the system’s fragilities, when the board of directors suddenly announced the firing of Sam Altman, citing a lack of transparency in his communications.
Within hours, the situation spiralled into an open crisis. Nearly all employees threatened to leave the company if Altman was not reinstated. Microsoft, the main partner and investor, publicly supported Altman and even discussed the possibility of hiring him and his teams. Faced with this pressure, the board was forced to reverse its decision within days. Sam Altman was reinstated, and the board’s composition was profoundly overhauled. This episode highlighted internal tensions, specifically the difficulty of making divergent logics coexist within the same company: ethical posturing, industrial imperatives, and investor demands.
In addition to these internal constraints, competitive intensity is particularly fierce.
Google, the inventor of generative AI, is making rapid progress with Gemini. Anthropic, with Claude, has established itself in certain segments, particularly programming, while emphasising safety.
China’s DeepSeek has claimed to use less expensive processors. France’s Mistral AI advocates for a frugal approach and European digital sovereignty. In a sign of this shifting landscape, Apple which initially partnered with OpenAI to include ChatGPT for certain Siri features – has chosen to replace it with Gemini.
In this context of ecosystem reorganisation, OpenAI’s position, while still central, is being challenged. Intensifying competition reinforces the need for ever-greater financial resources.
OpenAI’s Initial Public Offering (IPO) is presented as a response to these constraints: a way to fund massive investments and consolidate a weakened competitive position. An IPO could raise between $50 billion and $100 billion by selling 10% to 20% of the capital. Such an operation would constitute one of the largest in the history of financial markets.
However, this transformation involves delicate trade-offs. A listed company is subject to profitability and transparency requirements that may clash with the experimental nature of artificial intelligence. Added to this is the persistent dependence on Microsoft and Nvidia, which limits the company’s strategic autonomy.
Most importantly, there is no indication that an IPO would suffice to resolve OpenAI’s structural problems. At best, without a significant shift in the business model, it would only delay its bankruptcy by a few years. The economic model of generative AI remains fundamentally unstable today.
Beyond the case of OpenAI, one can legitimately question the current functioning of an economy dominated by tech giants.
Artificial intelligence is establishing itself as an essential infrastructure whose effects far exceed the economic sphere. For some analysts, control over AI now carries the same geostrategic importance as the possession of nuclear weapons.
Consequently, a civilisational question arises: can we entrust the development and direction of such a technology solely to financial markets? Can we imagine Elon Musk or Mark Zuckerberg personally owning the equivalent of one or more atomic bombs? OpenAI’s IPO will not provide the answer alone. However, it will constitute one of the first large-scale tests.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2026 à 11:47
Tiphaine Blanchard, enseignante en gériatrie et nutrition vétérinaire, École Nationale Vétérinaire de Toulouse; Inrae
De plus en plus d’études montrent que vivre avec un chien ou un chat peut avoir des effets positifs sur la santé physique et le bien-être mental. Ces effets sont notamment dûs à l’attachement fort des propriétaires pour leurs animaux de compagnie. Une étude originale s’est intéressée à ce lien et à ses principales caractéristiques.
En France, les animaux de compagnie ne sont pas de simples compagnons : ils participent activement à notre bien-être. Mais que révèle ce lien sur notre santé mentale et nos modes de vie ?
Une étude récente menée à l’École nationale vétérinaire de Toulouse a permis, pour la première fois, de mesurer l’attachement des Français à leurs chiens et à leurs chats.
Les bienfaits de la présence d’un animal sur la santé humaine ne sont plus à démontrer. De nombreuses études mettent en évidence qu’elle est associée à une réduction du risque cardiovasculaire et qu’elle peut aider à diminuer le stress, en particulier chez les personnes entretenant un lien affectif fort avec leur animal de compagnie.
Les propriétaires de chiens, par exemple, marchent davantage, ont une vie sociale plus active et présentent un risque moindre de dépression. Chez les personnes âgées, les études suggèrent que la présence d’un animal aide à préserver des capacités cognitives, telles que la mémoire, ainsi que le moral, tandis que chez les enfants, elle favorise l’apprentissage de l’empathie et des responsabilités.
Ce lien n’est pas seulement comportemental : il touche aussi nos besoins émotionnels. Dans une société marquée par la solitude, l’anxiété et le vieillissement de la population, le chien ou le chat devient parfois un véritable soutien psychologique, capable de créer un sentiment de stabilité et d’utilité au quotidien.
Cependant, cette relation, bénéfique dans bien des cas, peut aussi devenir source de détresse émotionnelle. Certaines personnes développent un attachement anxieux à leur animal, caractérisé par une inquiétude excessive à l’idée de la séparation ou lorsque l’animal tombe malade.
Chez les personnes âgées, même sans hyperattachement, la séparation forcée avec leur animal lors d’une hospitalisation ou d’une entrée en Ehpad représente souvent un véritable traumatisme, tant l’animal fait partie de leur équilibre affectif et leur quotidien.
À lire aussi : Quand les chats améliorent la qualité de vie au sein des Ehpad
Les effets positifs du lien humain-animal sont aujourd’hui mis à profit dans plusieurs programmes hospitaliers et médico-sociaux.
La présence d’animaux en établissements médico-sociaux (type Ehpad) peut favoriser les échanges, susciter des souvenirs et contribuer à rompre temporairement le sentiment de solitude chez les résidents. Proposer une médiation animale dans des psychothérapies destinées à des adolescents se révèle aussi bénéfique. Enfin, dans certaines unités pédiatriques, notamment en oncologie, des animaux spécialement formés accompagnent les patients pendant les soins pour diminuer l’anxiété et améliorer le bien-être lors de l’hospitalisation.
Plus récemment, plusieurs commissariats français ont introduit la présence de chatons pour apaiser les victimes de violences, une approche inspirée de dispositifs déjà mis en œuvre à l’étranger. Ainsi, aux États-Unis, des chiens spécialement formés sont intégrés dans certains commissariats et tribunaux afin d’accompagner les victimes lors des auditions. À ce jour, il n’existe pas de données scientifiques évaluant leur impact dans ce contexte spécifique, mais les témoignages sont positifs. Par ailleurs, des bénéfices ont été rapportés chez les professionnels : une étude menée auprès de policiers canadiens a montré que la présence de chiens dans leur environnement de travail était perçue comme réduisant le stress et améliorant le bien-être.
Cette thématique mériterait d’être explorée par des travaux de recherche spécifiques pour étudier dans quelle mesure le contact avec un animal aide à restaurer un sentiment de sécurité après un traumatisme.
Ces initiatives, de plus en plus répandues, reposent toutes sur la même idée : renforcer la santé humaine en s’appuyant sur la relation avec l’animal. Comprendre les liens complexes, entre bien-être, dépendance et vulnérabilité, nécessite de disposer d’un outil fiable, qui n’existait pas encore en version française jusqu’à récemment.
Pour mieux comprendre ces relations, peu étudiées en France, un outil de référence international a été traduit en français : la Lexington Attachment to Pets Scale (LAPS). Cet outil permet de quantifier l’attachement émotionnel entre un propriétaire et son animal à travers 23 items (par exemple : « Mon animal comprend quand je suis triste »).
Près de 1 900 propriétaires français de chiens et de chats ont répondu à cette enquête.
Comment mesure-t-on l’attachement à son animal ?
L’échelle LAPS attribue un score d’attachement de 0 à 69, un score élevé traduisant un attachement plus fort du propriétaire à son animal.
En France, les propriétaires de chiens ont obtenu un score médian de 58,5 contre 52 pour les chats. C’est plus élevé qu’en Angleterre, au Danemark ou en Autriche !
L’étude met en évidence plusieurs facteurs influençant le score d’attachement :
Les femmes ont un score plus élevé que les hommes, un résultat observé aussi dans les autres pays.
Les personnes vivant sans enfants présentent également un score plus élevé, leurs animaux pouvant parfois jouer le rôle de figures familiales de substitution.
Les propriétaires de chiens ont un score plus élevé que les propriétaires de chats, peut-être en raison d’une interaction plus active.
Les personnes avec un niveau d’études plus élevé affichent des scores plus faibles, peut-être parce qu’elles ont tendance à moins exprimer leur attachement émotionnel.
Ces tendances reflètent des réalités sociales profondes. Dans une société où la solitude augmente, où les familles se recomposent et où le travail à distance se généralise, l’animal occupe un rôle affectif grandissant. Il apaise, structure le quotidien et comble un besoin de lien que les relations humaines ne satisfont pas toujours.
En psychologie, la théorie de l’attachement décrit notre besoin fondamental de sécurité et de réassurance auprès d’une « figure d’attachement », souvent un parent, un partenaire, ou… un animal.
Les chiens, plus démonstratifs, offrent une interaction émotionnelle proche de celle d’un enfant : ils sollicitent, réagissent, expriment de la joie. Les chats, plus indépendants, demandent parfois une forme d’attachement plus « projective », où le propriétaire interprète leurs signes d’affection.
Ces différences expliquent pourquoi les chiens obtiennent des scores d’attachement plus élevés : ils répondent activement au besoin humain de lien et de réciprocité. Mais chez tous les propriétaires, l’attachement est bien réel.
L’échelle française validée du LAPS sert déjà à d’autres travaux de recherche.
L’un d’eux s’intéresse à l’impact de l’arthrose du chien sur la vie quotidienne de ses propriétaires. Quand un animal souffre, c’est souvent tout le foyer qui en subit les conséquences. Vous pouvez participer à cette nouvelle étude en répondant à ce questionnaire en ligne :
Le questionnaire s’adresse à tous les propriétaires de chiens, qu’ils soient concernés ou non par l’arthrose, afin de mieux comprendre comment la santé des chiens affecte celle de ses propriétaires et d’à améliorer la prise en charge conjointe du chien et de sa famille.
Tiphaine Blanchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.04.2026 à 15:45
Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d'études diplomatiques et stratégiques (CEDS)
L’intelligence artificielle ne détruit pas tant des emplois qu’elle modifie profondément les compétences nécessaires pour les accomplir. De cette confusion entre emploi et compétences risquent de naître des erreurs dans les politiques d’accompagnement des mutations en cours.
Chaque grande vague technologique a produit son lot de prédictions contradictoires sur l’emploi. L’intelligence artificielle (IA) ne fait pas exception. Mais avant de savoir combien d’emplois l’IA va créer ou détruire, il faudrait s’accorder sur ce qu’elle automatise réellement. La réponse oblige à distinguer trois notions que le débat public confond régulièrement : l’emploi, la compétence et la tâche.
Les grandes vagues d’automatisation ont suivi une logique remarquablement stable en deux siècles : vapeur, électricité, robotique industrielle ont déplacé les tâches physiques répétitives et épargné le travail cognitif non routinier. Cette régularité empirique a été formalisée par Autor, Levy et Murnane dès 2003 sous le nom d’« hypothèse de polarisation des tâches ».
L’automatisation ronge les emplois intermédiaires, ceux des cols bleus qualifiés et employés de bureau exécutant des tâches routinières, mais épargne les deux extrémités. D’un côté, les tâches manuelles non routinières, comme la plomberie ou les soins, de l’autre, les tâches cognitives non routinières, comme l’analyse, le conseil ou la rédaction experte. Ces dernières constituaient le cœur des professions du tertiaire qualifié, et la conviction s’était solidement installée qu’elles resteraient hors d’atteinte.
À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail
Cette conviction reposait sur une confusion conceptuelle qu’il faut dissiper avant tout. Ce n’est pas l’emploi de juriste ou d’analyste financier qui était protégé, c’est un ensemble de tâches précises qui composaient cet emploi et qui résistaient jusqu’ici à l’automatisation. La distinction entre ces trois niveaux est fondamentale.
Un emploi désigne un poste occupé dans une organisation, avec un contrat, un salaire, une fiche de poste. Une compétence est une capacité cognitive ou technique mobilisable dans plusieurs contextes professionnels. Une tâche est une action précise, délimitable, dont on peut évaluer si elle est ou non automatisable à un coût donné. C’est à ce troisième niveau que se joue réellement la transformation en cours, et c’est précisément ce niveau que le débat public ignore.
L’IA générative constitue une rupture dans cette longue histoire. Pour la première fois depuis l’industrialisation, les tâches cognitives qualifiées, rédaction, analyse documentaire, synthèse, production de premiers jets, se retrouvent directement exposées. Eloundou, Manning, Mishkin et Rock estiment qu’environ 80 % de la population active états-unienne pourrait voir au moins 10 % de ses tâches affectées par les grands modèles de langage, et que cette exposition croît avec le niveau de salaire. C’est l’exact inverse du schéma observé lors de toutes les vagues précédentes.
Le cadre analytique développé par Acemoglu et Restrepo permet d’aller plus loin. Leur modèle distingue deux effets opposés produits par toute vague d’automatisation :
l’effet de déplacement, d’abord : des travailleurs perdent des tâches au bénéfice de la machine, ce qui réduit mécaniquement la demande de travail et pèse sur les salaires des groupes affectés ;
l’effet de réintégration, ensuite : l’automatisation produit de nouvelles tâches où la valeur humaine est décisive, générant une demande compensatrice.
L’histoire longue du capitalisme industriel peut se lire comme une succession de ces deux effets, le second finissant généralement par compenser le premier.
Le cas de la traduction permet de voir très concrètement comment déplacement et réintégration se combinent, l’IA générative peut produire en quelques secondes un premier jet dans une autre langue, ce qui déplace une partie du travail auparavant effectué par des traducteurs humains vers la machine. Mais cette automatisation réintègre simultanément d’autres tâches ou renforce leur importance, telles que la vérification des contresens, l’adaptation au contexte culturel, l’harmonisation de la terminologie, le contrôle de la qualité et la validation finale.
Ce qui est préoccupant avec l’IA générative, c’est le déséquilibre potentiel entre ces deux dynamiques. Le déplacement s’opère à une vitesse que les marchés du travail et les institutions de formation peinent à absorber, tandis que la réintégration reste encore largement à construire.
Cependant, le phénomène le plus important n’est pas sectoriel, mais il est interne aux métiers eux-mêmes. Dans ses « Perspectives de l’emploi », l’OCDE met en évidence que les professions les plus exposées à l’IA générative sont précisément celles à forte densité cognitive : finance, droit, conseil, enseignement supérieur. Contrairement aux vagues précédentes qui frappaient les zones rurales et les bassins industriels, l’exposition est désormais plus forte dans les grandes métropoles et chez les travailleurs hautement qualifiés, un renversement géographique et social inédit.
Ce renversement se joue concrètement au niveau de la tâche.
Dans un même poste d’analyste financier ou de juriste, certaines tâches migrent vers l’IA (produire un résumé exécutif, générer une première analyse de contrat, synthétiser une revue de littérature), tandis que d’autres se revalorisent mécaniquement : définir le cadre d’analyse pertinent, évaluer la qualité d’un raisonnement automatisé, détecter une erreur factuelle dans un output, assumer la responsabilité juridique ou éthique d’une décision. Ce ne sont pas des emplois qui disparaissent. Ce sont des bouquets de tâches qui se redistribuent entre humains et machines, transformant de l’intérieur ce qu’un employeur attend d’un salarié qualifié.
Cette redistribution des tâches a une implication directe sur les compétences qui seront réellement valorisées dans les années à venir, et elle renverse une partie des évidences habituelles sur la formation professionnelle.
Former les travailleurs à utiliser l’IA au sens instrumental, maîtriser un outil, rédiger des prompts efficaces, s’approprier une interface, est utile à court terme, mais c’est insuffisant si la compétence réellement demandée demain n’est pas de produire avec l’IA, mais de superviser et de critiquer ce qu’elle produit.
Or, superviser efficacement un output d’IA requiert exactement ce que les formations courtes et techniques peinent à développer : une culture générale solide permettant de détecter une erreur de fond, une capacité argumentative pour évaluer la cohérence d’un raisonnement, une connaissance des biais cognitifs pour identifier les angles morts d’une analyse automatisée. Ce sont des compétences que les sciences de l’éducation regroupent sous le terme de métacompétences : apprendre à apprendre, à exercer un jugement critique, à mobiliser des savoirs dans des situations inédites.
Le paradoxe devient alors le suivant. À mesure que l’IA automatise les tâches routinières de la connaissance, elle valorise précisément ce que les formations généralistes et les cursus de sciences humaines cultivent de longue date et que les débats sur l’employabilité ont eu tendance à déconsidérer au profit de compétences techniques plus immédiatement mesurables.
Non par nostalgie des humanités, mais par logique économique pure. Si la machine produit le texte, l’analyse et la synthèse, la valeur marginale de l’humain réside dans sa capacité à juger si ce texte dit vrai, si cette analyse est pertinente au regard du contexte réel, si cette synthèse sert l’objectif poursuivi.
Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.04.2026 à 15:44
Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques ordinaires sont devenues un enjeu central de sécurité pour les environnements sensibles. De simples données de déplacement issues d’un footing, enregistrées et partagées par une application publique, ont pu être utilisées pour localiser des navires ou des bases militaires.
Un footing, en apparence, n’a rien de sensible. Pourtant, en mars 2026, une activité enregistrée sur Strava par un militaire français a permis de localiser en temps quasi réel le porte‑avions Charles-de-Gaulle en Méditerranée orientale. Dès 2018, la carte de chaleur mondiale de Strava – une visualisation agrégée des activités publiques enregistrées par ses utilisateurs – avait déjà révélé des bases militaires et des sites sensibles, et des enquêtes plus récentes ont montré que les pratiques sportives de gardes du corps pouvaient trahir des habitudes de déplacement de chefs d’État.
Le problème ne vient pas d’un piratage sophistiqué, mais d’un usage banal de montre connectée, compte public et trace GPS accessible en ligne. Ce cas illustre comment la sécurité d’aujourd’hui ne se limite plus à la protection physique, mais inclut aussi la maîtrise des traces numériques produites par nos comportements les plus ordinaires.
Strava est une application conçue pour suivre et partager des performances sportives. Son usage premier relève du loisir, de la sociabilité numérique et du suivi de soi, non de la documentation d’activités sensibles. C’est pourtant là toute l’ambivalence de ce type d’outils car sans avoir été pensés pour la sécurité, ils peuvent produire des effets très concrets sur elle.
À mesure que les technologies de traçabilité s’installent dans les usages quotidiens, elles cessent d’apparaître comme des dispositifs de contrôle. Elles deviennent des outils familiers, associés au confort ou à l’optimisation des pratiques. Dès lors, une course, un itinéraire répété, un point de départ ou d’arrivée ou une activité enregistrée en mer peuvent révéler bien davantage qu’une simple pratique sportive. Une donnée de performance peut devenir un indice sur une routine, une présence ou une habitude de déplacement.
Le cas Strava n’est d’ailleurs pas isolé. À l’aéroport d’Heathrow (Londres), en 2014, des toilettes connectées ont été testées pour mesurer anonymement leur fréquentation, améliorer le nettoyage et mieux répartir les moyens de maintenance. L’exemple peut sembler éloigné, mais il montre que, au-delà des outils explicitement sécuritaires, des dispositifs connectés collectent eux aussi discrètement des traces numériques sur les comportements des usagers. En ce sens, la vulnérabilité ne naît plus seulement d’une attaque ou d’une fuite volontaire, mais aussi d’usages ordinaires dont les effets de visibilité sont souvent sous-estimés.
Longtemps, la sécurité a été pensée selon un modèle essentiellement physique. Il fallait protéger une personne, sécuriser un déplacement, contrôler un périmètre, anticiper une menace. Cette logique est toujours d’actualité mais, à l’ère numérique, elle ne suffit plus.
Dans un environnement saturé d’objets connectés, de plateformes et de données de localisation, la vulnérabilité peut désormais naître à la périphérie du dispositif de protection. Elle ne résulte plus forcément d’une intrusion ou d’une action malveillante. Elle peut venir d’un usage mal paramétré, d’une routine numérique non interrogée ou d’un outil utilisé sans conscience de ses effets de visibilité.
La sécurité d’un responsable politique, d’un chef d’entreprise, d’un diplomate ou d’un site sensible dépend donc aussi des traces numériques produites par son environnement humain et technique : assistants, chauffeurs, escortes, collaborateurs, militaires, objets connectés, applications de suivi ou réseaux de partage. Protéger une « personne sensible », une personnalité, aujourd’hui, ce n’est plus seulement protéger son corps ou son itinéraire. C’est aussi protéger l’écosystème informationnel qui l’entoure.
Cette évolution renvoie à une sécurité de plus en plus renforcée par la technologie via les capteurs, les données et les outils de suivi. Mais l’ajout de technologie ne supprime pas la vulnérabilité. C’est justement le problème d’une lecture technosolutionniste qui surestime la complémentarité humain-machine. Elle rappelle au contraire qu’une technologie n’est efficace qu’à condition d’être articulée à l’analyse humaine, à l’expérience de terrain et à une compréhension fine du contexte. Certes, la technologie renforce donc la vigilance, mais elle ne remplace ni le jugement, ni la formation, ni la culture du risque.
La vulnérabilité observée est également organisationnelle, culturelle et humaine. Elle naît d’une forme de non-concordance entre la banalité des usages numériques (courir avec une montre connectée, par exemple) et la sensibilité des environnements dans lesquels elles s’inscrivent (être dans un endroit classifié secret-défense). Un même outil peut être perçu comme un outil de confort ou de performance tout en produisant des effets d’exposition importants.
Former devient donc aussi important qu’équiper dans la mesure où il ne s’agit pas seulement d’interdire certains usages, mais plutôt de faire comprendre comment une trace numérique par définition invisible peut, par agrégation et recoupement, devenir une information sensible. La sécurité ne se joue donc plus dans le contrôle des outils, mais dans l’intelligence des pratiques.
L’un des principaux enseignements de ces affaires est qu’aucune technologie ne protège à elle seule. Une application, une montre connectée ou un dispositif de géolocalisation ne sont ni bons ni mauvais en soi. Comme le montre la recherche, tout dépend du cadre dans lequel ils sont utilisés, des règles qui les entourent et de la capacité des acteurs à en comprendre les effets. Raison pour laquelle la réponse ne peut pas être juste « technique ».
Elle suppose aussi une doctrine d’usage, une formation adaptée et une culture sécuritaire partagée. À l’inverse la traçabilité peut aussi renforcer la protection, mais elle ne remplace ni l’analyse humaine, ni l’appréciation du contexte, ni les méthodes classiques de sécurité.
Autrement dit, la sécurité des environnements sensibles repose sur une complémentarité entre l’outil et l’humain. Il ne suffit pas de déployer des dispositifs ; encore faut-il que les utilisateurs comprennent ce qu’ils produisent, ce qu’ils exposent et les conséquences possibles de leurs usages entre une possible surveillance et une souveillance, c’est-à-dire une forme plus discrète de captation des traces intégrées aux gestes ordinaires et parfois à peine perçue par ceux qui y participent.
Dans le cas Strava, l’enjeu n’est donc pas seulement de mieux paramétrer une application. Il est de construire une culture du risque numérique, capable d’intégrer les gestes les plus ordinaires à la réflexion sécuritaire.
Ce que la recherche nous enseigne en lien avec ces cas est que la vraie leçon de ces affaires est peut-être là : dans un monde connecté, la menace ne réside pas seulement dans ce que l’on cherche à cacher, mais aussi dans ce que l’on produit sans y penser.
Ces affaires dites « StravaLeaks » montrent que la traçabilité numérique, loin d’être un simple confort d’usage, peut devenir un enjeu de sûreté dès lors qu’elle s’inscrit dans un environnement sensible. Protéger, aujourd’hui, ce n’est plus seulement verrouiller un périmètre ou escorter une personnalité. C’est aussi apprendre à gouverner les traces que produisent les usages les plus ordinaires.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.