08.05.2026 à 21:28
Jérémie Bertrand, Professeur de finance, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management, IÉSEG School of Management
Aurore Burietz, Professeur de Finance, LEM-CNRS 9221, IÉSEG School of Management
La brutale hausse des taux d’intérêt fait craindre à certains experts un krach immobilier. Pourtant, les conditions sont loin d’être réunies. Ce que l’on observe, c’est plutôt un marché en pause, où acheteurs et vendeurs retardent leur projet. Ce n’est pas forcément une bonne nouvelle pour les ménages qui cherchent à se loger. Pour l’économie, c’est moins grave. Pour le moment.
Depuis deux ans, le marché immobilier français traverse une zone de turbulences rarement observée depuis le début des années 2000. Hausse brutale des taux d’intérêt, chute du pouvoir d’achat immobilier, transactions en berne : autant de signaux qui alimentent une question devenue récurrente chez les ménages comme chez les investisseurs : faut-il s’attendre à un krach du crédit immobilier ?
Derrière les discours anxiogènes, quels sont les mécanismes économiques réellement à l’œuvre ? Entre 2021 et 2024, les taux immobiliers sont passés d’environ 1 % à plus de 4 %. Ce choc peut être perçu comme violent, surtout après une décennie d’argent « quasi gratuit ». Cependant, comme le montre le graphique ci-dessous, dans les années 2000, emprunter à 4 ou 5 % était la norme.
Ce qui change aujourd’hui, et ce qu’on observe sur le graphique, c’est la vitesse de la remontée. Elle a pris de court les ménages comme les banques. Résultat : la hausse rapide des taux a provoqué une contraction accélérée de la demande de crédit. Beaucoup de ménages ne passent plus le filtre du taux d’endettement, ou renoncent tout simplement à s’endetter pour acheter.
Le volume de crédits immobiliers accordés a fortement chuté depuis 2022. Les banques, contraintes par des règles prudentielles (taux d’endettement à 35 %, durée maximale de 25 ans), ont resserré l’accès au financement. Elles prêtent moins, et sélectionnent les dossiers de manière plus rigoureuse.
À lire aussi : Depuis la crise de 2008, la financiarisation du marché de l’immobilier s’est accélérée
Ce phénomène nourrit l’idée d’un « krach du crédit ». Toutefois, un krach, au sens strict, suppose un effondrement brutal et désordonné du système. Or, ce que l’on observe aujourd’hui ressemble davantage à un ajustement forcé qu’à une rupture systémique.
Les banques françaises restent solides, bien capitalisées, et peu exposées à des prêts risqués de type « subprime » comme ce fut le cas aux États-Unis en 2008.
Face à la baisse de la demande, les prix immobiliers ont entamé une correction dans de nombreuses grandes villes depuis 2023. Paris, Lyon ou Bordeaux ont enregistré des baisses de prix significatives, souvent comprises entre 5 % et 10 % selon les périodes et les marchés.
Cet ajustement est logique : quand le crédit devient plus cher, la capacité d’achat diminue. Pour que les transactions repartent, les prix doivent s’aligner, c’est la loi de l’offre et de la demande. Mais là encore, on parle d’une correction progressive, pas d’un effondrement généralisé.
Toutefois, plusieurs facteurs structurels viennent limiter la baisse des prix. D’abord, le déséquilibre entre l’offre et la demande reste important. En France, le marché du logement est caractérisé depuis plusieurs années par une forme de pénurie, en particulier dans les grandes métropoles. Comme l’explique l’association nationale pour l’information sur le logement (ANIL), il n’y a tout simplement pas assez de logements disponibles pour répondre aux besoins des ménages, ce qui soutient mécaniquement les prix, même en période de ralentissement. De plus, de nombreux propriétaires hésitent à revendre leur bien à un prix inférieur à celui auquel ils l’ont acheté, afin d’éviter de matérialiser une perte financière.
Le marché immobilier français ne connaît pas un ajustement fluide par les prix, mais un ajustement bloqué : les vendeurs refusent de baisser fortement leurs prix tandis que les acheteurs perdent leur capacité d’emprunt. Le résultat est moins un krach qu’une paralysie progressive du marché.
Simultanément, la dynamique démographique continue d’alimenter la demande. La population française augmente, vieillit et évolue dans ses modes de vie (dé-cohabitation, familles monoparentales, mobilité professionnelle). Toutes ces évolutions accroissent le besoin de logements, ajoutant un blocage supplémentaire à l’ajustement attendu.
Enfin, la structure de la propriété joue un rôle stabilisateur. Une part importante des propriétaires en France n’a plus de crédit à rembourser : leur taux d’endettement est d’environ 11 %, contre près de 28 % pour les accédants. Cette situation financière plus confortable limite les ventes contraintes en période de ralentissement.
Au total, ces éléments créent une forme d’inertie du marché immobilier français : les prix peuvent baisser, mais ils résistent mieux aux chocs que dans des marchés plus spéculatifs ou plus endettés. Autrement dit, on n’observe pas de ventes massives contraintes susceptibles de provoquer une chute brutale des prix qui constituerait le mécanisme d’ajustement « normal ».
En revanche, cette résistance s’accompagne d’un autre phénomène : un fort ralentissement de l’activité. Dans un contexte de taux d’intérêt élevés, acheteurs et vendeurs adoptent des stratégies d’attente. Les premiers espèrent une baisse des taux pour améliorer leur capacité d’emprunt ; les seconds préfèrent différer la vente dans l’espoir de préserver leur prix. Ce décalage bloque les négociations et réduit fortement le nombre de transactions. Le marché ne s’effondre donc pas : il se grippe. Les échanges se raréfient, la mobilité résidentielle ralentit, et l’ensemble donne l’impression d’un marché « à l’arrêt ».
Par ailleurs, les autorités jouent un rôle central dans l’évolution du marché. La Banque Centrale européenne a déjà ralenti la hausse des taux, et pourrait les stabiliser, voire les baisser progressivement si l’inflation recule. En France, les autorités ont déjà ajusté certains paramètres pour éviter un blocage du marché. Le calcul du taux d’usure, le taux maximal légal pour prêter, a ainsi été temporairement mensualisé en 2023 afin de mieux suivre la remontée rapide des taux et de fluidifier l’octroi des crédits.
Parallèlement, les banques disposent de marges de flexibilité sur les règles d’endettement, avec des dérogations encadrées qui permettent d’approuver certains dossiers au-delà des critères standards. L’objectif est clair : maintenir un accès minimal au crédit malgré le durcissement des conditions. Ces interventions contribuent à amortir les chocs. Elles rendent un scénario de krach pur, moins probable, même si elles ne peuvent pas empêcher un ralentissement durable.
Plutôt qu’un krach, on assiste à la fin d’un cycle exceptionnellement favorable. Le marché immobilier entre dans une phase plus « normale », marquée par des taux plus élevés qu’au cours de la décennie passée, une sélection accrue des emprunteurs et une stabilisation, voire une baisse modérée des prix. Cela implique un changement de comportement. Les acheteurs doivent revoir leurs attentes, les vendeurs ajuster leurs prix, et les investisseurs recalculer leurs rendements.
Pour les ménages, la situation est inconfortable mais pas catastrophique. Ceux qui ont déjà emprunté à taux fixe sont protégés. Ceux qui souhaitent acheter doivent être plus patients et plus stratégiques.
Le vrai risque n’est pas un krach brutal, mais un marché durablement grippé, avec moins de transactions et une mobilité résidentielle réduite. Cela peut avoir des effets économiques plus larges, notamment sur le secteur du bâtiment.
La période d’euphorie du secteur immobilier est révolue. Nous sommes entrés dans un environnement plus exigeant, où le crédit redevient une ressource rare et coûteuse. Pour les acteurs du marché, l’enjeu n’est plus de profiter d’un cycle haussier, mais de s’adapter à une nouvelle réalité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
07.05.2026 à 17:24
Jean-Baptiste Meyer, Directeur de recherche (Centre Population et Développement), Institut de recherche pour le développement (IRD)
Et si la diplomatie climatique se réinventait en dehors du format traditionnel des COP ? En Colombie, à l’occasion d’une conférence organisée à Santa Marta du 24 au 29 avril 2026, une dynamique alternative a émergé : plus ouverte, elle cherche à dépasser les blocages multilatéraux en plaçant la diversité des savoirs au cœur des décisions.
S’il y a un constat sur lequel convergent les « climato-négationnistes » et les activistes climatiques radicaux, c’est l’inutilité des COP, organisées sous l’égide des Nations unies (Convention-cadre des Nations unies sur les changements climatiques, UNFCC de son acronyme en anglais). Dans les deux cas, on leur reproche une inefficacité de plus en plus apparente, où les décisions sont nécessairement prises au consensus. En conséquence, le consensus devient tellement mou qu’il n’en exprime plus rien de significatif ni d’opératoire.
Ainsi le résume la bande-annonce d’un film documentaire à venir dans le courant de l’été 2026, en partenariat avec l’Institut de recherche pour le développement (IRD) et l’Université nationale de Colombie.
Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite a voulu replacer enfin la sortie des combustibles fossiles au cœur de l’agenda international. Co-organisée par la Colombie et les Pays-Bas, elle a regroupé 57 États volontaires (et l’Union européenne en tant que telle, NDLR).
Qu’a-t-il été décidé à cette occasion ? À rebours des COP climat, où ce sont avant tout les textes finaux qui comptent, pesés au mot près, car votés par les représentants d’États, c’est ici surtout la méthode de travail qui diffère, beaucoup moins rigide. Elle ne s’accompagnait d’aucune obligation de production particulière, si ce n’est d’engager le processus de constitution d’une feuille de route pour la sortie des énergies fossiles. La rencontre a ainsi inauguré de nouvelles modalités de coopération mondiale sur les enjeux socio-environnementaux.
À lire aussi : Aujourd’hui, le droit protège les combustibles fossiles : une première conférence internationale veut briser ce verrouillage
Le débat sur la paralysie des négociations multilatérales en général – et celle des COP climat en particulier – n’est guère nouveau. Leur répétition annuelle exacerbe les frustrations de ceux qui souhaitent réellement progresser sur les questions climatiques.
À la COP30 de Belém, en novembre 2025, une quarantaine de pays avaient exprimé leur mécontentement quant à l’absence de mention de la sortie des énergies fossiles dans la déclaration finale. Plus de 80 se sont associés à l’initiative encourageant à poursuivre les travaux d’élaboration d’une feuille de route en ce sens.
La Colombie et les Pays-Bas ont alors invité les États qui souhaitaient travaillaient sur ce point à se réunir dans une conférence en marge des COP. Autrement dit, la conférence de Santa Marta ne s’est certes pas tenue dans le cadre onusien, mais s’est toutefois inscrite dans le prolongement de la précédente COP climat.
Préparée dans un laps de temps exceptionnellement court (moins de la moitié d’une année, contre un an pour les COP climat), cette conférence inédite avait une organisation moins cadrée au plan organisationnel. Aux dires d’observateurs et de participants, on y percevait un petit côté brouillon : davantage d’improvisation, voire parfois un manque de clarté sur les livrables attendus et les prochaines étapes.
Pourtant, ces faiblesses – inhérentes au format de la conférence spontanée, point d’étape entre la COP30 du Brésil et la COP31 en Turquie – ont, aux dires des participants, pu être dépassées, notamment grâce à son caractère volontaire. Juan Carlos Monterrey Gómez, envoyé climatique du Panama, cité dans le Climate Diplomacy Brief, a par exemple déclaré :
« Santa Marta est un moment historique, car c’est la première fois que nous pouvons ouvrir nos cœurs, ouvrir nos esprits et avoir une véritable conversation sans ces stupides demandes de mise au vote, sans ces stupides procédures qui font dérailler toute la séance et ne nous laissent que dix minutes pour aborder le fond. »
À lire aussi : De COP en COP, une géopolitique de la procrastination climatique
Concrètement, la conférence a successivement réuni trois composantes : un panel académique (baptisé Academic Dialogue) où les scientifiques du monde entier ont pu émettre des recommandations, un « sommet des peuples », avec notamment des représentants associatifs, communautaires et syndicaux et, enfin, un segment de haut niveau (Transition Away from Fossil Fues, ou TAFF, regroupant essentiellement des représentants gouvernementaux spécialisés.
Cette concentration de thématiques, de compétences et de volontés dans des espaces restreints a favorisé un véritable bouillon de culture permettant des échanges fertiles. Il contraste avec l’organisation physique des COP, où plusieurs milliers de participants se retrouvent dans une multitude de pavillons, souvent sur plusieurs bâtiments. L’espace y est alors divisé entre zone bleue, réservée aux délégations nationales, aux organismes onusiens et aux ONG observatrices, et où se déroulent les négociations officielles de la COP28, et zone verte, ouverte à toutes les autres parties prenantes.
À lire aussi : Les coulisses des négociations de la COP28 vues par un enseignant-chercheur
Contrairement aux COP, où ce sont les délégations nationales qui débattent (les discussions relatives à l’état de la science, par exemple, se déroulent à un autre moment, sous l’égide d’un organe subsidiaire, la conférence de Santa Marta a proposé une méthodologie transversale, impliquant en amont 15 groupes de travail transnationaux. Une grande hétérogénéité a caractérisé l’ensemble de ces groupes, allant des représentants des sciences à ceux de la société civile, en passant par les entités publiques à différentes échelles, ainsi que des agences de financement ou des entreprises multinationales.
Au cours des deux mois qui ont précédé la rencontre, ces derniers ont planché sur trois enjeux fondamentaux : la dépendance structurelle aux combustibles fossiles, l’action sur l’offre et la demande et les modalités de la coopération internationale et de la diplomatie climatique.
Malgré la diversité de statuts et d’intérêts des participants à ces groupes de travail, un certain nombre de points de convergence sont apparus :
les progrès réalisés par les alternatives aux fossiles sont irréversibles,
il est indispensable de mettre fin aux soutiens fiscaux et juridiques à l’extraction des combustibles,
pour y parvenir, la concertation et la dialogue sont essentiels.
À Santa Marta, la science a gardé un rôle fondamental, acté à la fin de la conférence par l’instauration d’un conseil spécifique. Sa fonction est de nourrir les processus de décision, à partir de connaissances élaborées de façon rigoureuse. Lors de la conférence, les participants ont exprimé leur foi dans une politique fondée sur les preuves (evidence based policy). Elle confère une responsabilité majeure à la communauté scientifique.
Mais, en parallèle, cette communauté est aussi de plus en plus sollicitée pour s’ouvrir à d’autres modes de connaissances (traditionnelles/ancestrales, locales…). D’aucuns verraient dans cette coopération des contradictions insurmontables, du fait d’une incompatibilité irréductible des savoirs. Mais dans les faits, ce cheminement commence déjà à porter ses fruits.
L’hétérogénéité de la participation des corps sociaux à la conférence a ainsi permis d’introduire de véritables porte-paroles des entités naturelles. Au-delà des chercheurs, régulièrement convoqués pour en expliquer les comportements et la dégradation, elles ont également mis à l’honneur les communautés indigènes, paysannes ou afro-descendantes
Le mariage cognitif entre ces savoirs hétérogènes requiert toutefois un travail transépistémique. Les épistémies varient considérablement entre celles fondées sur le scepticisme organisé (les disciplines scientifiques) et celles recourant aux explications traditionnelles parfois d’ordre religieux, qui font intervenir des entités spirituelles, par exemple. Pourtant, des convergences notables existent, notamment pour ce qui est de la conscience écologique, susceptibles d’influencer les positions politiques qui en découlent.
Malgré tout, une certaine hiérarchie a pu perdurer durant la conférence entre ces acteurs de la diversité culturelle et ceux de la gouvernance, inscrite dans la division successive des séquences (académique, société civile puis représentation gouvernementale) et leur degré d’exclusivité. Mais la tendance à l’ouverture et à l’inclusion manifeste plus qu’un changement idéologique : c’est aussi une modification (partielle mais réelle) des références objectives.
On retrouve en effet, dans la nouvelle diplomatie climatique portée à Santa Marta, une « esquisse du Parlement des choses », telle que décrite par Bruno Latour en 2018. Elle consiste à revoir les rôles attribués au politique, à l’expertise et à la technocratie, et où ce ne serait plus seulement les humains qui auraient le droit d’être représentés.
Ce concept pose de nouvelles questions au droit et à l’économie politique internationale. Un ouvrage à paraître prochainement, issu d’un projet européen et latino-américain sur la transition écologique auquel j’ai collaboré, entame la remise en question de la conception de la géopolitique centrée sur l’humain.
Les efforts déployés à Santa Marta ont transcendé les clivages nationaux, mais aussi nord-sud, d’une certaine manière. Avec une présidence bicéphale eurolatino (colombo-néerlandaise), et euro-océanique pour la prochaine conférence qui sera co-organisée par l’Irlande et Tuvalu, le grand partage manichéen des responsabilités historiques de l’empreinte écologique (qui, historiquement, est un point d’achoppement des COP climat) n’a, certes, pas été complètement effacé. Il a toutefois été adouci par le cadrage de la conférence sur la recherche de solutions.
Toutes les régions du monde étaient représentées, avec une majorité relative de l’Europe (plus d’un tiers des pays officiellement présents), suivie de l’Amérique latine, puis de l’Asie, de l’Afrique et de l’Océanie. Aucun des grands pays à prétention hégémonique n’était invité – ni les États-Unis, ni la Chine, ni la Russie – et le seul des grands émergents à participer était le Brésil.
En janvier 2026, le premier ministre canadien Mark Carney évoquait justement un tel modèle à l’occasion du Forum économique de Davos : celui où la volonté des pays intermédiaires permettrait de construire et de viabiliser des coalitions alternatives, face à l’imposition unilatérale de l’hyperpuissance.
Mais la vision de la conférence de Santa Marta s’affirme et se distingue sur au moins deux points :
le premier concerne l’importance accordée au Sud global,
et le deuxième, l’irruption des non-humains dans le champ de la géopolitique.
Même si la prégnance du Nord demeurait dans les coordinations, la composition de l’assistance lors des réunions privilégiait naturellement la participation de ressortissants du Sud. Les sujets abordés reflétaient des enjeux qui les concernent au premier chef, puisque les impacts écologiques actuels les affectent en priorité. En mettant le Sud au cœur des débats, une telle rencontre participe du rééquilibrage de ces derniers et renouvelle la façon de les aborder.
Avec ce renouvellement de la contradiction à son endroit, le négationnisme climatique (qui peut, on l’a vu avec la sortie des États-Unis de l’accord de Paris, trouver des relais à l’échelle des États) a de fortes chances d’être progressivement confronté à un isolement accru. Ses velléités d’entraînement ont fait long feu à Belém, où aucun pays n’est sorti de l’accord de Paris. Elles pourraient se voir débordées par des initiatives telles que celles explorées à Santa Marta, qui a aussi voulu anticiper ses effets pervers. Des mécanismes ont ainsi été envisagés pour contrer l’augmentation de la demande d’hydrocarbures que pourrait générer une baisse des prix du fait de la croissance des énergies renouvelables.
La crise économique mondiale causée par les tensions sur l’approvisionnement en pétrole passant par le détroit d’Ormuz rappelle, dans tous les cas, l’urgence d’accélérer la transition énergétique.
Jean-Baptiste Meyer a reçu des financements de son institut l'IRD.
07.05.2026 à 16:20
Thomas Fraise, Postdoctoral research fellow, University of Copenhagen; Sciences Po

L’apparition de l’IA Mythos, présentée comme capable de détecter rapidement des failles informatiques majeures, montre que les capacités offensives dans le cyberespace progressent très vite. Cette évolution pourrait rendre les systèmes nucléaires plus vulnérables et augmenter le risque d’erreurs, de sabotage ou d’escalade accidentelle.
En 1983, le film WarGames imaginait un adolescent qui, entré par accident dans un système informatique du Pentagone, déclenchait un programme de simulation, lequel était interprété comme un prélude à une guerre nucléaire. Le film avait tant marqué Ronald Reagan qu’il avait interrogé ses conseillers sur la possibilité d’une telle intrusion dans les systèmes américains les plus sensibles. Une semaine plus tard, la réponse était venue : « Monsieur le Président, le problème est bien plus grave que vous ne le pensez. »
Les politiques autour de l’armement nucléaire reposent sur une série de paris, souvent lointains, sur l’avenir de la dissuasion nucléaire. D’abord, les pays dotés de l’arme nucléaire considèrent que la peur de leur riposte suffira toujours à empêcher un adversaire de les attaquer en premier, et qu’ils disposeront toujours de l’expertise et de la chance nécessaires pour prévenir des explosions accidentelles. Ils estiment donc que la possession de l’arme nucléaire sera pour eux, au cours des décennies à venir, source de sécurité et non d’insécurité.
Or, comme nous le montrons avec mes collègues Sterre van Buuren et Benoît Pelopidas, il existe plusieurs scénarios futurs plausibles dans lesquels posséder des armes nucléaires engendrera plus de coûts réels que de bénéfices potentiels dans un monde où la température aura augmenté de plusieurs degrés. Maintenir un arsenal crédible et sûr exigera de faire des choix budgétaires, au détriment d’autres dépenses rendues urgentes par la crise climatique. L’univers des risques existentiels pour un État, qui pourrait justifier l’usage de l’arme nucléaire, peut aussi s’élargir. Des experts s’inquiètent que des risques de pénurie d’eau au Pakistan et en Inde ne deviennent un terrain fertile pour un conflit menant à une escalade nucléaire.
Mais il existe un autre pari, bien plus implicite : celui que les arsenaux nucléaires, qui sont des systèmes technologiques complexes et hautement digitalisées, ne possèdent aucune vulnérabilité cyber qui pourrait être exploitée par un acteur souhaitant empêcher son fonctionnement normal.
La récente percée de l’intelligence artificielle Mythos révèle à quel point les conditions de ce pari peuvent changer sur le long terme.
Le 7 avril 2026, la compagnie Anthropic – qui commercialise la série de grands modèles de langages (LLM) Claude – annonçait la création de son nouveau modèle d’intelligence artificielle (IA) : « Mythos ». Ce modèle, qui n’a pas été mis sur le marché mais rendu disponible à un groupe de travail restreint composé d’une douzaine des principaux géants américains de la technologie (Google, Microsoft, Apple, NVidia, Amazon Web Services, etc.), obtiendrait un taux de succès sans précédent en matière de détection des failles dans les systèmes informatiques.
Mythos aurait ainsi été capable de détecter, avec un impressionnant taux de succès, des failles « zero-day » dans différents navigateurs informatiques, logiciels ou systèmes d’exploitation. Une faille « zero-day » est une faille de sécurité critique dans un système d’information, contre laquelle aucune protection n’existe pour l’instant, rendant ainsi possible une attaque laissant un délai de « zéro jour » pour réagir. Selon Anthropic, Mythos aurait réussi à développer en un temps record (sans doute moins d’une journée) des méthodes permettant d’exploiter ces failles avec un taux de succès de 72,4 %, largement supérieur aux autres modèles existants.
Si ces informations proviennent de la compagnie elle-même – qui a tout intérêt à exagérer les résultats –, certaines preuves publiques ont toutefois été apportées. Sylvestre Ledru, le directeur de l’ingénierie chez Mozilla responsable du navigateur Firefox, a déclaré que Mythos avait permis de découvrir un nombre « proprement hallucinant » de vulnérabilités dans leurs logiciels. Une faille de sécurité vieille de près de vingt-sept ans, ayant survécu à un grand nombre d’audits, a par exemple été découverte dans un système d’exploitation libre très utilisé par des services de sécurité informatique, OpenBSD.
Mythos révèle un problème de fond : l’augmentation des capacités offensives – non seulement des États, mais aussi d’acteurs privés comme des cybercriminels – dans le cyberspace risque d’être accélérée par le développement de l’IA, et une incertitude émerge quant à la capacité des acteurs défensifs à réagir suffisamment vite pour corriger les vulnérabilités existantes.
Même dans le cas où Mythos ne serait pas à la hauteur des performances annoncées, le développement des LLM depuis le début des années 2020 a montré à quel point leurs performances s’améliorent vite. Nous faisons donc face à une accélération du développement des capacités offensives et de la diffusion de celles-ci à un nombre d’acteurs plus large. Cela signifie une potentielle tendance à la hausse de la probabilité de succès d’une cyberattaque, ainsi qu’une augmentation du nombre absolu de ces attaques.
Pour comprendre la vulnérabilité des armes nucléaires aux cyberattaques, il faut avoir à l’esprit le fait que par « arsenal nucléaire », on entend bien plus qu’un stock de têtes nucléaires. Le fonctionnement normal des arsenaux nucléaires modernes repose sur une large configuration de technologies : têtes nucléaires, missiles permettant de transporter ces armes, technologies de communication (permettant d’assurer que l’ordre soit transmis depuis le président jusqu’à l’opérateur chargé d’actionner ces armes), ainsi qu’un ensemble de technologies d’alerte avancée servant à surveiller le ciel à la recherche de potentiels signaux d’une attaque nucléaire adverse. Ces éléments doivent être capables de communiquer entre eux pour assurer le contrôle de ces armes.
Et ils sont plus nombreux qu’on pourrait le penser. Comme le note Herbert Lin, chercheur à l’Université de Stanford et auteur d’une étude sur les cybermenaces contre les armes nucléaires, la métaphore du « bouton nucléaire » est simplifiée : une fois que le président appuie dessus, un ensemble de « cyber-boutons » doivent être pressés pour déclencher les opérations nucléaires, et les contrôler – autant d’échelons où des attaques informatiques pourraient s’insérer pour empêcher, par exemple, l’arrivée de l’information pertinente.
Le président pourrait ne pas recevoir suffisamment d’informations – ou ne pas en recevoir du tout – pour déterminer qu’une attaque est en cours. Ou alors, il pourrait ne pas être en mesure de communiquer à ses forces sous-marines l’ordre de tir. Pis, on pourrait voir se réaliser le scénario catastrophe imaginé depuis les années 1950 : un faux ordre de tir pourrait être communiqué aux opérateurs de missiles.
Les scénarios n’ont pas besoin d’être aussi radicaux : l’ordre pourrait être communiqué, mais avec un retard, ou ne pas être communiqué à l’ensemble des forces, menant à une riposte moindre que celle désirée. Ladite riposte pourrait être bloquée : en 2010, un centre de commandement américain a perdu la communication avec une cinquantaine de missiles nucléaires pendant près d’une heure. Un adversaire pourrait savoir tirer profit de telles failles.
Alternativement, une cyberattaque d’ampleur menée par des acteurs non étatiques pourrait créer l’impression qu’un adversaire cherche à s’en prendre à notre arsenal nucléaire, créant un risque d’escalade par « inadvertance ».
On peut aussi imaginer des actions cyber contre les armes elles-mêmes, le hardware plutôt que le software de l’arsenal. Bien sûr, les acteurs de la sécurité nucléaire ne se contentent pas d’attendre qu’une attaque survienne sur l’un de ces systèmes. Ils développent et testent leurs capacités défensives de manière continue. Le problème est que la complexité des systèmes existants ne permet pas d’affirmer avec certitude qu’il n’existe « aucune vulnérabilité ».
C’est James Gosler, ancien responsable de la sécurité informatique des systèmes nucléaires américains au sein du laboratoire Sandia, qui l’affirme : à partir des années 1980, du fait de la complexification exponentielle des composants internes aux armes nucléaires, « vous ne pouvez désormais plus affirmer que l’ensemble des microcontrôleurs (destinés à assurer le fonctionnement du mécanisme déclenchant l’explosion) sont invulnérables ».
Cela ne signifie pas non plus que des vulnérabilités existent nécessairement. Mais cela veut dire qu’aucun acteur n’est en mesure de savoir s’il y en a. Alors, faut-il craindre que l’arsenal nucléaire français, ou bien n’importe quel autre arsenal ciblant la France, soit « hacké » dans le futur ?
En fait, on ne sait pas. Des scénarios de ce type sont de l’ordre du possible : il n’existe pas de large système d’information complexe dont on puisse garantir, avec une totale certitude, la fiabilité totale. L’évolution des outils permettant des cyberattaques, et leur potentielle diffusion auprès d’un large nombre d’acteurs étatiques et non étatiques, rend ce type de scénario futur potentiellement plus probable et, dans tous les cas, plausible.
Mythos met en lumière une nouvelle modalité du pari nucléaire, née du développement des nouvelles technologies et de leur intégration aux arsenaux nucléaires.
Nous parions d’abord sur l’absence de vulnérabilité au sein de ces systèmes – alors même qu’il est impossible de mesurer cette probabilité avec certitude. Elle évolue avec le temps, au rythme des systèmes mis à jour, remplacés, connectés à d’autres. Si une vulnérabilité existe malgré tout, nous parions ensuite sur le fait que, en temps voulu, l’évolution des capacités offensives dans le cyberespace sera constamment égalée, et toujours à temps, par l’évolution des capacités défensives – y compris à l’ère de l’intelligence artificielle. Là encore, cette probabilité est elle aussi indéterminable, puisque le développement de capacités défensives est réactif : il se fait en fonction de la connaissance que l’on a de la nature des capacités offensives et des vulnérabilités existantes, qui sont indéterminables.
Nous faisons donc le pari que nos défenses contre les cyberattaques, et celle des autres États dotés d’armes nucléaires, seront suffisantes. Dans le cas contraire, alors on fait le pari que la chance sera de notre côté et que les vulnérabilités existantes ne seront pas détectées – comme celle qui existait depuis 27 ans dans le code d’OpenBSD. Il s’agit d’un pari sur la chance puisque dans ce scénario, c’est l’incapacité ou l’absence de volonté adverse, sur laquelle nous n’avons aucun contrôle, à développer des capacités efficaces qui nous sauve.
La capacité des pratiques existantes de contrôle à remplir leur tâche est rendue plus incertaine par l’arrivée de grands modèles d’IA capables de détecter des vulnérabilités et concevoir des cyberattaques de façon massive et automatisée. Faire le choix d’une politique de sécurité fondée sur les armes nucléaires revient à parier sur le fait que, dans le futur comme par le passé, la chance restera toujours de notre côté.
Ce travail a été financé par le Conseil Européen de la Recherche (ERC) au titre du programme-cadre de l’Union européenne pour la recherche et l'innovation Horizon Recherche (projet RITUAL DETERRENCE, convention de subvention n°101043468).
07.05.2026 à 15:06
Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management
L’entreprise états-unienne Anthropic, spécialisée en intelligence artificielle générative, a pris début avril la décision de geler la diffusion publique de l’un de ses modèles récents, baptisé « Mythos ».
Selon un communiqué de la société, cette décision découle d’une puissance de calcul et d’une capacité de raisonnement jugées trop « offensives ». Anthropic a choisi de ne partager son modèle qu’avec une coalition de géants technologiques (Apple, Amazon Web Services, Cisco, Google, Microsoft, etc.) dans le cadre du projet Glasswing. Le but annoncé est d’utiliser Claude Mythos Preview pour détecter des vulnérabilités dites « zero-day » (c’est-à-dire inconnues et n’ayant aucun correctif connu) et sécuriser proactivement les logiciels critiques… avant que des acteurs malveillants n’exploitent ces failles.
Les grands modèles de langage savent déjà coder depuis quelques années, mais la presse spécialisée documente désormais un saut plus préoccupant. Des systèmes d’intelligence artificielle (IA) peuvent identifier des vulnérabilités réelles dans des logiciels critiques. Les autorités, comme l’Agence nationale de la sécurité des systèmes d’information (Anssi), soulignent la capacité des systèmes d’IA à automatiser les attaques.
Les enjeux de la diffusion massive de tels modèles, Mythos compris, dépassent largement le cadre technique. Une cyberattaque d’envergure, automatisée par une IA, pourrait paralyser des systèmes financiers ou logistiques en quelques secondes, avec un coût de remédiation se chiffrant en milliards d’euros. Les enjeux sont aussi sociétaux et de santé, puisque nos hôpitaux, nos réseaux énergétiques et les autres systèmes critiques reposent sur des couches logicielles souvent anciennes, vulnérables à des « attaques de zero-day » désormais générées à la chaîne.
À lire aussi : Hacker la bombe ? Ce que l’IA Mythos révèle du pari de la dissuasion nucléaire
Dans ce contexte, des IA ultraperformantes, comme Mythos, peuvent-elles contribuer à une forme de « dissuasion algorithmique » ? Celle-ci repose sur un principe simple : détecter et neutraliser ses propres vulnérabilités critiques plus vite que n’importe quel attaquant humain ou automatisé – y compris lors d’une attaque – si rapidement que l’attaque en devient inutile ou trop coûteuse.
La rétention de ce modèle par une ou des entreprises privées états-uniennes rouvre également la question de la souveraineté numérique à l’échelle mondiale.
Historiquement, la cybersécurité repose sur une asymétrie fondamentale : l’attaquant n’a besoin de trouver qu’une seule faille de sécurité, tandis que le défenseur doit toutes les combler dans une forme de course contre la montre.
L’intégration de systèmes d’IA renforce les capacités des attaquants, en premier lieu parce qu’un modèle comme Mythos peut scanner des millions de lignes de code en quelques minutes, là où un humain passait des semaines à analyser le code source d’un logiciel pour y déceler une erreur de mémoire. C’est ce que l’on appelle l’« automatisation de la reconnaissance ».
De plus, l’IA permet le phishing de haute précision, c’est-à-dire des messages frauduleux (le phishing classique) mais plus crédibles, sans fautes d’orthographe, dans n’importe quelle langue et ultrapersonnalisés pour tromper l’utilisateur. L’Anssi alerte d’ailleurs sur l’usage de l’IA générative pour briser les barrières linguistiques et psychologiques traditionnelles qui rend les « pare-feux humains » – c’est-à-dire la vigilance et l’esprit critique des lecteurs – de plus en plus obsolètes.
Enfin, des malwares peuvent désormais réécrire leur propre code en temps réel pour échapper à la détection « par signature ». Cette méthode classique des antivirus consiste à identifier un virus par son « empreinte » (un code déjà connu et répertorié). En changeant constamment de forme (exploitation polymorphe), le malware devient invisible pour ces outils traditionnels.
En miroir, l’IA améliore aussi les capacités de cyberdéfense, grâce à des analyses causales, qui permettent de modéliser les relations entre événements, ainsi qu’en accélérant l’identification d’anomalies par une surveillance automatisée et la priorisation de leurs corrections. Ainsi, un système d’analyse IA a permis en janvier de découvrir 12 failles de sécurité dans OpenSSL, un logiciel essentiel à la protection des communications internet mondiales.
Mythos semble également déjà participer à cette automatisation, et Firefox affirme déjà avoir identifié et réparé 271 vulnérabilités grâce à ce logiciel, ce qui suggère que Mythos excelle effectivement dans la détection de vulnérabilités lorsqu’il a accès au code source.
En revanche, rien ne prouve pour l’instant que Mythos puisse, sans accès au code source et sans intervention humaine, compromettre de manière autonome n’importe quel logiciel fermé.
De plus, des analyses suggèrent que des capacités comparables seraient déjà reproductibles à partir de modèles publics, remettant en cause l’efficacité de cette rétention. Ainsi, Mythos ressemble aujourd’hui davantage à un analyste de sécurité surpuissant, capable d’identifier des failles et de proposer des pistes d’exploitation, qu’à une entité autonome de cyberattaque universelle.
Ce qui inquiète vraiment, ce n’est pas seulement que Mythos sache mieux coder ou mieux tester du code : c’est qu’il semble abaisser le coût, le temps et le niveau d’expertise nécessaires pour découvrir et enchaîner des failles, donc potentiellement accélérer aussi bien la défense que l’attaque.
Dans ce contexte, la notion de « dissuasion algorithmique » (algorithmic deterrence en anglais) émerge. Elle peut être comprise par analogie avec la dissuasion nucléaire : il ne s’agirait plus seulement de se protéger, mais de posséder une capacité de réponse et de détection si rapide que l’attaque en devient inutile ou trop coûteuse.
Contrairement au domaine nucléaire, la dissuasion algorithmique repose sur le renforcement des mécanismes défensifs (plutôt que de réponse) : détection accélérée des intrusions, analyse des causes et simulation d’attaques pour boucher les failles avant qu’elles ne soient exploitées.
Avant l’ère de l’IA, la dissuasion algorithmique était plus limitée : les équipes de sécurité réalisaient des tests d’intrusion, une méthode d’évaluation de la sécurité qui repose sur la simulation de cyberattaques, pour identifier les ports ouverts et failles connues, pour enclencher leur correction.
Aujourd’hui, on l’a vu, l’IA peut renforcer les mécanismes défensifs et donc la dissuasion. Mais, dans le meilleur des cas, une IA de défense permet de réduire le coût de la protection et d’augmenter la probabilité qu’un attaquant soit repéré ou neutralisé avant d’atteindre son objectif.
La dissuasion algorithmique reste donc fragile. Même à l’ère de l’IA, elle dépend beaucoup des pratiques des acteurs opérationnels (agences de cybersécurité, armées, entreprises), de la qualité et de la modernité des systèmes hérités qu’ils doivent protéger et intégrer, des stratégies nationales et militaires mises en œuvre par les États ainsi que des dispositifs de gouvernance qui définissent les règles, les responsabilités et les mécanismes de contrôle de l’IA.
Ne pas rendre disponibles au grand public certains modèles peut sembler responsable, car cela évite de publier des capacités offensives qui seraient immédiatement détournées. Mais cette rétention concentre le pouvoir technologique entre quelques mains et réduit la transparence scientifique.
Le débat rejoint ici celui du cadre l’AI Act européen, qui impose déjà des obligations de transparence, de traçabilité et de documentation pour les modèles d’IA d’usage général, tout en cherchant à concilier innovation, sécurité et protection des secrets industriels.
L’opacité des modèles d’IA limite leur auditabilité, entrave le développement de contre-mesures appropriées et concentre le pouvoir technique entre quelques acteurs principalement américains, au détriment de la recherche ouverte et de la gouvernance démocratique. Cette critique s’inscrit dans une littérature académique plus large montrant que l’opacité des systèmes d’intelligence artificielle compromet leur reproductibilité, leur auditabilité et, in fine, leur valeur scientifique.
Christine Abdalla Mikhaeil est membre de Association for Information Systems (AIS). Elle a reçu des financements de l'Institut Bachelier et du LEM CNRS UMR 9221.
07.05.2026 à 09:38
Jean-Christophe Maréchal, Directeur de recherche - Hydrogéologue, BRGM
Bernard Ladouche, Chercheur, BRGM
Claudine Lamotte, Cheffe de projet, BRGM
Au fond de la lagune de Thau, en Occitanie, la source de la Vise est régulièrement sujette à un phénomène dit d’inversac, où la source d’eau douce se met soudainement à absorber l’eau saumâtre. Ce mécanisme, jusque-là peu connu, expose les ressources en eau douce des côtes à un risque de salinisation. Grâce à un dispositif expérimental unique, des chercheurs français ont pu l’observer en direct. De quoi expliquer au passage pourquoi certaines villes des alentours souffrent, lors de ces épisodes, d’inondations en l’absence de pluies.
Un phénomène exceptionnel, appelé « inversac », menace les ressources d’eau souterraine autour de l’étang de Thau (une vaste lagune d’eau saumâtre) en Occitanie. En fonction des conditions météorologiques, la source sous-marine de la Vise (surnommée localement « le Volcan » ou « le Gouffre ») peut s’interrompre – et cesse alors momentanément d’apporter de l’eau douce dans la lagune.
Elle devient dès lors un point d’infiltration majeur d’eau salée de la lagune vers l’aquifère, provoquant une salinisation chronique des eaux souterraines si précieuses, et des épisodes d’inondation sans pluie dans la station thermale de Balaruc.
Avec des collègues, nous avons pu suivre le phénomène en direct grâce à des instruments spécifiques, une première mondiale, qui a notamment fait l’objet d’une publication scientifique en 2025. De quoi mieux comprendre les causes de ce phénomène jusque-là mystérieux, qui peut durer des mois : six mois pour les épisodes survenus en 2010 et en 2014, et même dix-huit mois pour celui survenu entre 2020 et 2022.
Les eaux de pluie qui s’infiltrent à la surface de la terre rejoignent les nappes aquifères. Elles circulent ensuite dans le sous-sol jusqu’à des exutoires en surface : sources, zones humides et lits des rivières constituent autant de points bas du paysage vers lesquels convergent les eaux souterraines.
En zone côtière, les exutoires des eaux souterraines peuvent être sous-marins, situés dans la mer ou dans des lagunes côtières. Jouant un rôle important pour les écosystèmes marins côtiers, ils sont diffus ou ponctuels selon le type d’aquifère. Dans ce dernier cas, le plus souvent en contexte karstique, il s’agit de sources sous-marines. Elles sont particulièrement nombreuses en Méditerranée grâce à la forte présence de roches calcaires propices aux phénomènes karstiques.
En France, la source sous-marine de Port-Miou, au large de la calanque, est sans doute la mieux connue et est observée par les scientifiques depuis de nombreuses années.
Plus à l’Ouest, dans l’Hérault, il existe plusieurs autres sources sous-marines qui émergent dans la lagune de Thau. Parmi elles, la source sous-marine de la Vise, située au large de Balaruc, draine un aquifère côtier primordial pour les habitants de cette région au climat chaud et sec de type méditerranéen.
En effet, les eaux souterraines y sont prélevées pour l’alimentation en eau potable des villages voisins, pour l’irrigation aussi, mais surtout elles alimentent les thermes de Balaruc-les-Bains, première station thermale de France en nombre de curistes. Malheureusement, cette ressource d’eau douce précieuse est menacée par un phénomène exceptionnel : l’inversac.
Bien connue des pêcheurs et des ostréiculteurs, la source de la Vise est située dans la lagune de Thau, à une profondeur de 30 mètres au large de Balaruc. Cette profondeur est exceptionnelle pour l’étang de Thau, dont la profondeur moyenne excède rarement 4 m à 5 m : les flux d’eau souterraine ont creusé et érodé la roche pour créer un grand cône sous-marin situé autour de l’émergence. Cette profondeur attire les amateurs de plongée sous-marine qui peuvent ainsi pratiquer leur sport au cœur d’un site remarquable.
La source est localisée au sommet d’un conduit karstique subvertical qui relie la lagune de Thau à une nappe aquifère captive (c’est-à-dire sous pression) située en profondeur dans les calcaires du Jurassique. Le débit de la source est généralement de l’ordre de 100-150 litres par seconde (l/s), et augmente avec le niveau d’eau dans la nappe après des pluies intenses. C’est une eau douce et chaude (20 °C), car réchauffée par les flux d’eau d’origine profonde qui alimentent également la station thermale de Balaruc.
Or, depuis la fin des années 1950, on observe des épisodes temporaires d’inversion des flux d’eau au niveau de la source. Le résultat ? Une interruption brutale de l’arrivée d’eau douce d’origine souterraine, suivie d’une absorption des eaux de la lagune par la source. En hydrologie karstique, ce phénomène est connu sous le nom d’inversac, nom qui désigne une cavité karstique alternativement absorbante ou émissive, selon les conditions hydrologiques.
La plupart du temps, les inversacs sont des pertes-émergences situées le long d’une rivière : selon les niveaux d’eau, la rivière s’infiltre dans la cavité karstique (fonctionnement en perte) ou alors cette dernière déverse de l’eau dans la rivière (fonctionnement en émergence).
Dans le cas de la Vise, l’inversac se produit en lien avec l’étang de Thau. Selon les conditions hydroclimatiques, la source va tantôt déverser l’eau douce, tantôt absorber l’eau salée de l’étang.
Pour mieux comprendre ce phénomène, les hydrogéologues du BRGM, en collaboration avec la société ANTEA, ont conçu un dispositif inédit spécialement consacré à la mesure des débits de la source sous-marine. Il s’agit d’un tube d’une longueur d’environ cinq mètres et d’un diamètre d’un mètre, posé sur l’émergence, composé de trois compartiments.
Le tube inférieur récolte l’eau douce sortant des principaux griffons (points d’émergence) présents au fond de la lagune. Au-dessus, un débitmètre électromagnétique permet de mesurer le débit vertical au sein du tube intermédiaire. Il est surmonté d’un tube de tranquillisation destiné à réguler les flux d’eau et à réduire les turbulences pour assurer une bonne qualité de la mesure du débit. Des capteurs de température, de salinité et de pression sont installés dans le dispositif pour compléter les mesures.
Installé en juin 2019 par des scaphandriers professionnels, il a permis d’observer en direct un inversac qui s’est produit le matin du 27 novembre 2020. En effet, à 9 h 40 exactement, le débit de la source s’est brutalement inversé : d’un débit ascendant d’environ 120 l/s, il est passé à un débit descendant de 350 l/s.
Simultanément, les capteurs ont mis en évidence la présence d’une eau complètement différente : une eau salée et froide (comme la lagune) s’est substituée, au sein du tube de mesures, à l’eau douce et chaude qui provenait précédemment de la nappe aquifère. À cet instant, la source a commencé à absorber l’eau de la lagune, qui a envahi progressivement la nappe aquifère.
Cet inversac a duré seize mois, durant lesquels environ 7 millions de mètres cubes d’eau salée se sont infiltrés, provoquant l’intrusion de 200 000 tonnes de sel dans l’aquifère. En 2014, la salinisation progressive de la nappe provoquée par la succession des inversacs a nécessité la fermeture du captage d’eau souterraine de Cauvy, qui alimentait en eau potable Balaruc-les-Bains.
La répétition successive des inversacs menace également la ressource en eau thermale, dont l’usage est important pour l’activité économique du secteur. Plusieurs maraîchers exploitants ont également arrêté leur activité à cause de la salinisation de leur puits, tandis que de nombreux forages domestiques ont été touchés. Le sel est aussi remonté dans les sols, menaçant les espaces verts en affaiblissant un grand nombre d’arbres de la commune.
En complément des mesures à la source de la Vise, un réseau d’observation a été installé pour surveiller les niveaux d’eau de la lagune et de la nappe aquifère.
L’analyse détaillée de toutes ces données a permis de montrer que l’inversac s’est enclenché à un moment bien particulier, où une tempête marine accompagnée d’un coup de vent marin avait induit une hausse du niveau de l’étang. Et cela, au moment même où, au contraire, le niveau de la nappe aquifère était au plus bas, par manque de précipitation et de recharge. Résultat : la pression exercée par la masse d’eau salée de l’étang est devenue plus élevée que la pression de la nappe : les écoulements d’eau se sont alors brusquement inversés. C’est ce mécanisme que nous avons décrit dans notre article publié dans la revue Nature Communications Earth and Environment.
Restait à expliquer une bizarrerie locale : alors que les inversacs se déroulent en période de sécheresse, lorsque le niveau de la nappe aquifère est au plus bas, ils sont systématiquement accompagnés d’inondations dans la ville de Balaruc-les-Bains. Ceci est d’autant plus étonnant qu’aucun épisode de pluie ne précède ces inondations qui frappent les sous-sols, les caves et les parkings souterrains de la commune, causant de nombreux dégâts.
Cette curiosité hydrologique est à rapprocher des mesures observées dans les piézomètres des environs : chaque inversac est suivi d’une augmentation rapide des niveaux d’eau de la nappe d’environ 2,3 m. Cette hausse est expliquée par le contraste de densité entre les eaux : l’eau salée de la lagune est environ 3 % plus lourde que l’eau douce.
Ainsi, au moment de l’inversac, le conduit karstique vertical se remplit en quelques minutes d’eau salée sur sa hauteur totale, estimée à environ 70 m. Il en résulte une augmentation brutale de 2,3 m de la pression exercée par la lagune sur la nappe aquifère. Cette onde de pression se propage ensuite rapidement dans la nappe aquifère captive jusqu’à plusieurs kilomètres en quelques heures, provoquant une hausse des niveaux d’eau, et donc des inondations, même en l’absence de pluie.
Cette hausse inattendue des niveaux d’eau explique l’apparente contradiction entre la soudaineté du déclenchement d’un inversac et sa très longue durée. Si un coup de vent sur l’étang provoquant une hausse de son niveau de quelques centimètres peut déclencher un inversac, il ne suffit pas d’une accalmie météorologique pour que le système revienne à son état normal initial. Pour retrouver des flux ascendants dans le conduit karstique, la pression de la nappe aquifère doit vaincre cette surpression de 2,3 m provoquée par l’intrusion de sel, qui agit alors comme une sorte de « bouchon » sur la source sous-marine.
De ce fait, seule une très forte pluie sur le causse d’Aumelas, sur les hauteurs du bassin de Thau, peut recharger suffisamment la nappe aquifère pour provoquer une augmentation de niveau supérieure à 2,3 m, capable de vaincre le bouchon de sel. C’est ce qui s’est déroulé le 14 mars 2022 lorsqu’un épisode pluvieux de plusieurs jours, supérieur à 100 millimètres, a mis fin à cet inversac.
À lire aussi : Comment le changement climatique perturbe la recharge des eaux souterraines
Depuis les années 1950, les inversacs se répètent et s’accélèrent. En cause, les pompages d’eau souterraine, mais surtout la succession des sécheresses, qui provoquent une baisse du niveau de la nappe. Jusqu’à présent, le système revient toujours à son état normal après quelques mois, mais qu’en sera-t-il dans le futur lorsque la recharge naturelle déclinera et que le niveau de la mer montera ?
Il n’est pas exclu que le système bascule définitivement en inversac, provoquant ainsi une salinisation complète et définitive de l’aquifère du Jurassique. C’est pour cette raison qu’un projet d’expérimentation est en cours avec le Syndicat mixte du bassin de Thau pour explorer les moyens possibles de réduire les effets d’un inversac et de préserver la nappe aquifère.
Cette étude a pu être menée dans le cadre du projet de recherche DEM’Eaux Thau (2017-2022).
D’un montant de 5,3 millions d’euros, le financement du projet DEM’Eaux Thau a été assuré à 42% par le ministère de l'Enseignement supérieur et de la Recherche et la Région Occitanie (dans le cadre du Contrat de Plan Etat-Région 2015-2020), à 11% par le fonds européen FEDER, à 17% par l’Agence de l’eau Rhône-Méditerranée-Corse, à 4% par Montpellier Méditerranée Métropole, à 2% par Balaruc-les-Bains et à 1% par le Syndicat Mixte du Bassin de Thau. Le reste du financement du projet (23%) a été apporté grâce à la participation financière de la plupart des partenaires
Bernard Ladouche et Claudine Lamotte ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
06.05.2026 à 16:06
Xavier Bonnet, Directeur de Recherche CNRS à l'UMR 7372 en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé; La Rochelle Université

On the strictly protected island of Golem Grad in North Macedonia, the tortoises are destroying their own population. During prolonged courtship, aggressive males are exhausting the females and frequently pushing them off the cliffs. Consequently, there are now one hundred males for every female capable of laying eggs. This is the only known example of demographic suicide in the wild to date.
Under favourable, stable and protected environments, large animal populations have no reason to die out. This should not happen unless a catastrophe, such as a devastating fire or the destruction of their habitat, or over-exploitation, wipes out all individuals or weakens the population, making it vulnerable to disease and other disturbances and hazards.
Well sheltered by the steep cliffs that line the island of Golem Grad on Lake Prespa in North Macedonia, Hermann’s tortoises (Testudo hermanni boettgeri) thrive on the wooded plateau.
After basking in the morning sun, they graze in the meadows, rest, and court, with the males emitting high-pitched sounds during mating. At first glance, nothing seems to threaten this population.
As is the case with other long-living species, maintaining populations requires high survival rates among adults. On Golem Grad, the adults have no predators, as wild boars, dogs, rats and humans are absent from this strictly protected island. The mild Mediterranean climate of this lake, situated at an altitude of 850 metres, is also favourable for reptiles.
All these factors explain the extraordinary population density, which stands at around 50 individuals per hectare – the highest ever recorded for tortoises. The ease with which these tortoises can be observed and studied led to the establishment of the field-monitoring programme in 2008. This was the result of a fruitful scientific collaboration between North Macedonia, Serbia and France, and this long-term monitoring programme was awarded the CNRS’s SEE-Life label in 2023.
But appearances can be deceiving: this population is in a critical state.
The extensive demographic, behavioural, physiological and experimental data collected over nearly 20 years show that, although highly active sexually and reproductively, this population is effectively committing suicide!
Demographic suicide is a strange and counter-intuitive theoretical process. The conditions under which it may arise are quite specific. For a given species, one must imagine a high-density population in which violent sexual behaviour is so prevalent that it threatens the survival of females. This would gradually lead to an imbalance in the sex ratio (the proportion of males and females in a population), in this case an excess of males. This would put increasing pressure on females, who would become fewer in number and more harassed as a result. This would eventually create a vicious circle that leads to the disappearance of females and, ultimately, the extinction of the population.
Coercive and violent mating behaviours are fairly common in nature. Typically, males harass females until they mate, sometimes injuring them in the process. In some cases, such behaviour can result in the death of the female, as has been observed in elephant seals (where the males are considerably stronger than the females), as well as in wild sheep, grey squirrels, otters, deer, toads, fruit flies, humans… However, such fatal outcomes do not benefit the males, as they will have no offspring if the females die during mating. Therefore, such excessively violent behaviours are maladaptive and remain marginal.
Furthermore, in wild populations, various regulatory mechanisms prevent this type of vicious circle, or extinction vortex, from emerging. Females can employ a wide range of avoidance and defence strategies. For example, they can hide, seek the protection of a dominant male, or form alliances. Excessively violent males generally produce fewer offspring than those who spare the females, meaning their behavioural traits are less likely to persist over time. Furthermore, when males become overcrowded, they tend to emigrate in search of better mating opportunities, thereby reducing the pressure on females. Thus, conflicts between the sexes in coercive mating systems are resolved through effective equilibria, without a harmful escalation for either sex.
However, rare experiments conducted on animals studied in captivity have shown that males can have a strong negative impact on populations when the sex ratio and population density are artificially skewed in favour of males. For example, in a species of Japanese shrimp, an excess of males reduces female fertility and mating opportunities. In the common lizard, an excess of males leads to increased aggression, reducing both the fertility and survival of females. This theory has thus received partial confirmation through experimentation.
Information on the sexual behaviour of terrestrial tortoises, alongside a comparison with a control population, would be useful for understanding the situation in Golem Grad. The mating system of tortoises is coercive: males chase females, bump into them (like bumper cars) and sometimes bite them until they bleed and, in the case of Eastern Hermann’s tortoises, press on the females’ cloaca with their sharp tail spurs until they yield.
Hermann’s tortoises are still abundant in North Macedonia. We were therefore able to study another dense population located on the shores of the lake, just 4 kilometres from the island. Genetically very similar to the Golem Grad population, this population lives in a protected environment without cliffs. The females are large and heavy, with many weighing between 2.5 and 2.9 kg, and highly fertile, as shown by X-rays. They are slightly more numerous than the males and larger than them, and they effectively resist their intermittent sexual assaults. No demographic problems have been detected; population forecasts suggest an increase in numbers.
However, the situation at Golem Grad is quite different. On the plateau, over 700 adult males roam around looking for the forty or so adult females.
Furthermore, if physiological and environmental conditions are unfavourable, a Hermann’s tortoise may fail to lay eggs after mating. For example, if they are too thin or stressed, they are unable to build up reserves in the ovarian follicles and the eggs do not develop. In reality, therefore, there are more than 100 males for every female capable of laying eggs. However, our analysis of neonate and juvenile cohorts shows that the sex ratio is balanced at birth and during the first years of life, becoming imbalanced later on.
The surplus males often act in groups of three to eight. They harass the females all day long and injure them. They then lay down beside the females in the evening, ready to start again the next day. The females have little respite and do not have enough time to feed. They are thin, very few exceed 1.6 kg, with a maximum of 1.75 kg and when they lay eggs, they produce half as many as those in the control population.
Unable to escape, the females are regularly driven to the cliff edges, where the obstinate and clumsy males sometimes push them over. On July 18 2023, a GPS device fitted with an accelerometer, attached to a female, recorded her fall of over 20 metres; she died, broken in two, along with her three eggs.
Since the start of the study, we have identified almost all the turtles that have been found dead in the field, where their shells remain intact for a long time. Of the females that died, 22% suffered a fatal fall, compared to 7% of the males.
In collaboration with British colleagues, we have also developed an epigenetic clock to estimate the age of individuals from a blood sample.
The oldest males are over 60 years old and the oldest female is 35. These results are consistent with morphological, growth, and demographic analyses. The survival rate is abnormally low among females, due to male aggression.
Over time, the decline in the number of adult females, coupled with a drop in their fertility, slows down the renewal of the population, both relatively (the proportion of females) and absolutely (the total number of females). In 2009, we captured 45 adult females in the field, compared to 37 in 2010, 20 in 2024, and just 15 in 2025.
However, it takes a female around fifteen years to reach adulthood. Frustrated by the lack of sexual partners, males mate with other males, carcasses, stones, and immature females. Through this latter behaviour, they prematurely compromise the survival of females and exacerbate their demographic problem.
Population dynamics can be modelled by incorporating the above parameters and others. It is also possible to make predictions. The last female could die in 2083. The males, now deprived of females, will survive for decades, as these tortoises can live for over eighty years and will eventually die out. This is a prediction; perhaps the population, which is currently on the brink of extinction, will recover, even if we cannot see how. While the tortoises’ very slow pace of life has given us the opportunity to observe an extinction vortex in the wild and test a strange theory, intensive field monitoring has provided us with the data and inspiration above all else.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Xavier Bonnet has benefited from funding from SEE-Life CNRS.