LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Alain GRANJEAN
Transition écologique, économique et financière

CHRONIQUES DE L'ANTHROPOCÈNE


▸ les 10 dernières parutions

10.03.2026 à 10:00

Homo sapiens face à Gaia 3/3 : le défi européen.

Alain Grandjean

Troisième partie  Les perspectives que nous venons d’envisager dans la partie précédente conduisent à une interrogation plus fondamentale : l’humanité est-elle uniquement un facteur perturbateur, ou peut-elle devenir un organe réflexif du système Terre, en quelque sorte la vie consciente d’elle-même ? L’histoire du vivant montre que les organismes transforment…

The post Homo sapiens face à Gaia 3/3 : le défi européen. appeared first on Chroniques de l'Anthropocène.

Texte intégral (7843 mots)

Troisième partie 

Les perspectives que nous venons d’envisager dans la partie précédente conduisent à une interrogation plus fondamentale : l’humanité est-elle uniquement un facteur perturbateur, ou peut-elle devenir un organe réflexif du système Terre, en quelque sorte la vie consciente d’elle-même ? L’histoire du vivant montre que les organismes transforment leur environnement. La singularité d’Homo sapiens réside dans sa puissance et dans sa capacité à comprendre1 — au moins partiellement — les mécanismes qu’il perturbe et à réagir. C’est d’ailleurs ce qu’on observe au niveau mondial avec l’émergence et la généralisation en cours de solutions aux défis planétaires évoqués ici : technologies et énergie bas carbone, électrification des usages, restauration des écosystèmes, agroécologie etc . Aucune de ces solutions ne garantit un résultat. Mais elles indiquent qu’une trajectoire d’atténuation des périls est techniquement possible.

La bifurcation contemporaine relève de choix collectifs, d’institutions, de rapports de puissance, de temporalités politiques et culturelles. Les chapitres précédents ont montré que la question climatique ne relève ni d’un catastrophisme cosmique ni d’un simple ajustement marginal. La Terre restera habitable pour de nombreuses espèces. Mais la compatibilité entre un climat transformé et une civilisation industrielle dense, mondialisée, énergivore et interconnectée est incertaine. La question énergétique est évidemment centrale. La modernité industrielle a étendu la liberté humaine en externalisant l’effort vers des machines alimentées par des combustibles fossiles. Plus d’énergie signifie plus de mobilité, plus de production, plus d’autonomie matérielle et même cognitive2. La réduction de la consommation énergétique pose donc un dilemme : comment préserver la liberté tout en réduisant son empreinte sur la planète et ses équilibres physico-biologiques? Vu avec beaucoup de recul, on peut se demander si la conquête permanente par les organismes de plus d’indépendance et d’autonomie qui se traduit chez l’être humain par une quête incoercible de liberté va et peut se poursuivre compte-tenu des limites planétaires.

6. Trois modèles de civilisation face aux limites planétaires 

Nous allons maintenant croiser les analyses précédentes avec les trois grandes configurations politiques et culturelles qui structurent aujourd’hui le système international et dessinent, en fait, trois civilisations possibles. Décrivons-les de manière très simplifiée :

  • les États-Unis, porteurs d’un modèle que l’on peut qualifier de no limit ;
  • la Chine, incarnant un modèle d’ordre, de puissance et de contrôle des individus, donc de restrictions de leurs libertés ;
  • l’Europe, qui pourrait – sans encore l’assumer pleinement – incarner un modèle où les libertés individuelles sont maximales sous respect des limites planétaires. 

Ces trois modèles ne se limitent pas à leur composante idéologique. Elles correspondent à des régimes énergétiques, des rapports à la croissance économique et à la technologie, des conceptions de la liberté et des formes d’organisation du pouvoir distinctes. Les deux premiers sont clairement de nature impériale, ce qui n’est pas le cas de l’ Europe, qui ne l’a jamais été3.

6.1 Le modèle américain : expansion, innovation, liberté sans limites

Les États-Unis ont historiquement construit leur puissance sur l’abondance énergétique, l’expansion territoriale et la primauté de l’innovation technologique. Mais ce pays est aussi habité par une forme de messianisme, l’idée selon laquelle il a une mission particulière dans le monde : défendre la liberté et promouvoir la démocratie4. Cette vision remonte aux colons puritains du XVIIᵉ siècle, notamment John Winthrop, qui voyait l’Amérique comme une « cité sur la colline5 » destinée à montrer l’exemple. Au XIXᵉ siècle, la doctrine de la Destinée manifeste6 justifie l’expansion territoriale, puis au XXᵉ siècle des dirigeants comme Woodrow Wilson affirment vouloir rendre le monde « sûr pour la démocratie7 ». Cette idée influence fortement la politique étrangère américaine, notamment durant la guerre froide et depuis le 11 septembre 2001. Elle est bien sûr interprétée dans de nombreux cas et par de nombreux pays comme une justification morale —  choquante — de l’ingérence et de la puissance américaines.

N.B.La position anti-science de l’administration Trump, quand elle s’oppose à l’idéologie au pouvoir, est une anomalie historique. Si elle se confirmait, on peut penser que les Etats-Unis pourraient sortir du « jeu civilisationnel » évoqué ici.

6.1.1 Une civilisation de l’énergie abondante

Du charbon au pétrole texan, puis au gaz et au pétrole de schiste, la trajectoire américaine repose sur l’idée que les contraintes naturelles sont des défis techniques à surmonter, non des bornes à intégrer. La révolution du shale gas a réaffirmé cette posture : plutôt que réduire la demande, on augmente l’offre par l’innovation. La contrainte climatique est soit niée soit pensée comme un simple problème d’ingénierie (captage carbone, nucléaire, géo-ingénierie), mais pas comme susceptible de remettre en cause le mode de vie ni les énergies fossiles. Au pire, l’énergie va être cherchée dans des pays tiers par voie de conquête militaire ou assimilée. En résumé, les Etats Unis d’Amérique souhaitent maintenir un haut niveau de consommation d’énergie pour satisfaire sans limite les envies des plus riches.

6.1.2 Liberté individuelle, consommation et inégalités

Aux États-Unis, liberté politique et liberté d’expression8 s’accompagnent d’une « liberté de consommer » très valorisée, ce d’autant qu’elle nourrit le monde des affaires. Maison individuelle, climatisation, voiture personnelle, étalement urbain, aliments ultra transformés, compléments alimentaires sont autant d’expressions de cet idéal de liberté. Dans ce cadre, la sobriété est souvent perçue comme une restriction de liberté, plutôt qu’un choix collectif ou environnemental. Cette culture se prolonge parfois dans des imaginaires transhumanistes, visant à dépasser les contraintes biologiques du corps humain, dont la mort. Parallèlement, les inégalités sociales, accentuées depuis plusieurs décennies, sont souvent normalisées et vues comme des différences individuelles de réussite, rendant la prise de conscience collective des limites planétaires et de la sobriété particulièrement difficile. La constitution d’une caste d’ultra-riches uniquement soucieux de sauver leur peau et celle de leurs proches, face aux crises climatique et écologique, porte à l’acmé la contradiction fondamentale entre une conception de la liberté sans limites et les valeurs d’équité et de solidarité, encore partagées dans de nombreux pays européens. Enfin, signalons que le refus de réguler la finance peut conduire à des crises financières majeures, aggravant encore ces inégalités.

6.1.3 L’innovation comme solution universelle

La Silicon Valley, les grandes entreprises technologiques et les investissements massifs dans l’IA et l’énergie traduisent une conviction profonde : la croissance technologique permettra de découpler prospérité et impacts environnementaux. Ce modèle repose sur l’hypothèse implicite que les limites physiques peuvent toujours être repoussées plus vite que la dégradation des systèmes naturels. S’il le faut, la conquête spatiale est une option pour dépasser les limites planétaires, tant pour les matériaux que pour l’énergie que certaines formes de géo ingénierie pour le refroidissement planétaire.

6.2. Le modèle chinois : ordre, continuité et puissance 

Il est présomptueux de caractériser en quelques lignes la Chine, dont la culture, la vision de la nature et de l’être humain, le mode de pensée sont très différents des nôtres9. Mais nous en prenons le risque, en priant par avance le lecteur spécialiste de nous pardonner pour ces simplifications. La tradition chinoise ne sacralise pas la vie humaine ni l’autonomie individuelle comme des valeurs absolues indépendantes du corps social ; elle la situe dans un ordre relationnel où la stabilité collective et la continuité civilisationnelle priment10. Héritier d’une tradition politique marquée par la recherche d’harmonie sociale, formulée dès Confucius, et aujourd’hui portée par le Parti communiste chinois, ce modèle repose sur une forte centralisation et une capacité exceptionnelle de mobilisation industrielle. Mais l’harmonie proclamée justifie la contrainte, le contrôle social et l’effacement des dissidences. Le sinologue Jean-Pierre Cabestan11 souligne que le régime actuel combine plusieurs logiques : une continuité civilisationnelle réelle, un autoritarisme politique moderne, une rationalité technocratique, et une stratégie de puissance globale. Le politologue Alain Bauer insiste, dans son dernier livre12, sur le besoin de revanche et la reconquête de la souveraineté.

Le rattrapage économique de la Chine en cinquante ans a été spectaculaire. L ‘Europe a mis du temps à voir (et peut-être encore plus à croire!) que la Chine est devenue une hyperpuissance, technologique, scientifique, commerciale et géopolitique. Cela étant, des fragilités persistent : concentration du pouvoir autour de Xi Jinping, vieillissement démographique et fortes inégalités sociales.

6.2.1 Croissance économique, transition énergétique et rapport à la nature

Devenue l’atelier industriel du monde et maintenant une puissance technologique majeure, la Chine conserve encore une forte dépendance aux énergies fossiles qui représentent encore environ 82 % de son énergie primaire. Toutefois, la transition énergétique est largement engagée13 : développement massif du solaire, de l’éolien, de l’hydroélectricité et du nucléaire, électrification accélérée des transports et plafonnement récent des émissions de CO₂. Malgré la dépendance persistante des industries lourdes, la Chine figure parmi les acteurs majeurs de la décarbonation sectorielle et de l’électrification de l’économie.

Cette évolution s’inscrit dans une tradition où l’homme cherche moins à dominer la nature qu’à s’y intégrer, vision que l’historien Joseph Needham14 identifiait comme propre à la cosmologie chinoise. La notion mise en avant par Xi-Ping de « civilisation écologique » vise ainsi à concilier puissance industrielle, sécurité énergétique et équilibre environnemental.

6.2.2 Planification centralisée, contrôle technologique et puissance militaire

Le régime dispose d’une capacité de planification sans équivalent dans les démocraties libérales : il peut orienter le crédit, restructurer des secteurs entiers et imposer rapidement des transformations industrielles. Selon le philosophe Daniel A. Bell15, sa légitimité repose avant tout sur sa capacité à assurer stabilité et prospérité.

Cette efficacité repose sur une centralisation politique étroite, aujourd’hui renforcée par les technologies numériques, qui permettent un contrôle social étendu. Ce contrôle s’inscrit dans une tradition où l’État est garant de l’ordre collectif, condition première du développement et de la continuité.

Au plan militaire, la robotisation de l’armée chinoise s’inscrit dans la stratégie de modernisation de l’Armée populaire de libération, qui vise à transformer la Chine en puissance militaire de premier rang à l’horizon 2049. Pékin parle désormais de « guerre intelligente » (智能化战争16), combinant intelligence artificielle, essaims de drones, systèmes autonomes et robotique terrestre ou navale afin de compenser certains désavantages opérationnels et de réduire le coût humain des conflits. Cette orientation répond aussi à une logique stratégique plus large : accroître la dissuasion face aux États-Unis, sécuriser les zones sensibles (notamment autour de Taïwan) et intégrer pleinement l’innovation civile dans la défense, conformément à la politique de « fusion civilo-militaire ».

6.2.3 Transition écologique, puissance et liberté encadrée

Dans ce modèle, la transition écologique peut être imposée par le haut, grâce à la planification et à l’investissement massif. Mais cette capacité repose sur un principe central : la subordination de la liberté individuelle à l’ordre collectif assurant stabilité sociale et puissance nationale. Si la Chine s’est lancée dans la transition énergétique, ce n’est pas d’abord pour « sauver le climat » mais pour en faire un axe majeur de souveraineté et de puissance.

Comme l’analyse l’historien Wang Hui17, ce système tient à sa capacité à restaurer la puissance et la continuité civilisationnelle. La décarbonation progresse ainsi dans un cadre où la technologie renforce à la fois la transformation économique et le contrôle politique. Dans le modèle chinois, la transition écologique s’articule avec la planification autoritaire, la stabilité sociale et une volonté affirmée de puissance. 

6.3 L’Europe : liberté maximale sous contrainte assumée ?

L’Union européenne occupe une position intermédiaire et instable. Elle ne dispose ni de l’abondance énergétique historique américaine, ni de la centralisation politique chinoise. Fragmentée, dépendante, exposée, elle apparaît souvent comme une puissance incomplète18. Pourtant, ces contraintes mêmes ont façonné des atouts décisifs pour un monde fini. Le premier est une puissance normative sans équivalent. Faute de pouvoir imposer par la force, l’Europe impose par la règle. Son marché, l’un des plus vastes et solvables au monde, lui permet de définir les standards auxquels les autres doivent se conformer pour y accéder. Le second est une sobriété structurelle héritée de la contrainte. Moins dotée en ressources, l’Europe a développé des économies plus efficientes, des infrastructures plus denses, une moindre dépendance à l’abondance matérielle. Le troisième est sa profondeur institutionnelle et sociale. États stables, administrations capables, systèmes de protection sociale étendus : l’Europe dispose des instruments nécessaires pour absorber les chocs et organiser la transition sans rupture brutale. Enfin, sa fragmentation même constitue une forme de résilience. Là où les systèmes centralisés maximisent la vitesse mais concentrent les risques, l’Europe distribue les expérimentations, limite les erreurs systémiques et permet des ajustements progressifs. Sa lenteur est aussi une forme de robustesse.

L’Europe n’est ni la plus puissante, ni la plus rapide. Mais elle pourrait être la mieux adaptée à un monde où la contrainte énergétique devient la condition durable de l’organisation des sociétés. Là où d’autres doivent renoncer à l’illusion de l’abondance, elle a déjà commencé à construire sa liberté dans la reconnaissance des limites.

6.3.1 Une conscience aiguë des limites

L’Europe est la région du monde où — sans aucun doute parce qu’elle se confronte aux limites de ses ressources énergétiques et minérales — la reconnaissance institutionnelle des limites planétaires est la plus avancée : pacte vert, mécanisme d’ajustement carbone aux frontières, politiques climatiques contraignantes, débats publics intenses sur la sobriété. Elle tente d’articuler prospérité, droits fondamentaux et réduction des émissions.

6.3.2 La peur stratégique et la dépendance énergétique

La dépendance au gaz russe a montré la vulnérabilité énergétique européenne face à la Russie. La guerre en Ukraine a brutalement rappelé que la transition ne peut être pensée indépendamment de la sécurité. La sortie des fossiles est donc à la fois une exigence climatique et une nécessité stratégique. Mais cette double contrainte crée des tensions : accélérer la transition tout en assurant la stabilité sociale et industrielle; redéfinir la liberté comme capacité d’agir dans un monde contraint, en internalisant les limites écologiques dans les règles du jeu démocratique; composer avec les stratégies nationales divergentes.

6.3.3 L’hésitation institutionnelle

L’Europe est une construction hybride : souverainetés nationales persistantes, institutions supranationales partielles, politiques énergétiques encore largement nationales, ouverture internationale et compétitions commerciales internes. Cette fragmentation ralentit la capacité d’action. Elle alimente l’impression d’hésitation : ambition normative forte, puissance géopolitique limitée. Le défi européen est donc double : réussir la transition énergétique et préserver la légitimité démocratique dans un contexte de contraintes croissantes.

7. L’Europe peut-elle devenir un modèle ?

Pour que l’Europe incarne vraiment un modèle distinct, quatre conditions au moins semblent nécessaires :

7.1 Redéfinition de la prospérité

Le défi central est de redéfinir ce que l’on entend par prospérité. Il ne s’agit pas d’imposer une décroissance qui serait vue comme punitive ou une austérité généralisée. Il s’agit plutôt de dissocier le bien-être de l’accumulation matérielle infinie, et de rompre avec l’idée que l’augmentation continue du PIB — tel que calculé aujourd’hui — constitue l’horizon indépassable des sociétés européennes. La sobriété peut être heureuse !19

Cela suppose également de dissocier innovation et progrès. Toute innovation technique ne constitue pas nécessairement un progrès social ou écologique. Comme l’indique Benoît Heilbrunn20, l’innovation peut aussi accélérer la consommation, renforcer les dépendances technologiques ou aggraver les déséquilibres environnementaux. L’enjeu n’est donc pas d’innover plus, mais d’orienter l’innovation vers des finalités collectives : soutenabilité, robustesse, résilience.

Concrètement, cette redéfinition implique des transformations profondes :

  • Urbaines : densification raisonnée, réduction de l’artificialisation des sols, priorité aux mobilités douces, villes polycentriques.
  • Alimentaires : relocalisation partielle des productions, transition vers des régimes moins carnés, réduction du gaspillage.
  • Énergétiques : sortie accélérée des énergies fossiles, efficacité et sobriété énergétique, efficacité et déploiement massif des énergies renouvelables et bas-carbone.
  • Socioéconomiques : valorisation des métiers du soin, de l’éducation, de la réparation, de l’entretien du vivant.
  • Culturelles : promotion de l’usage plutôt que de la possession, de la qualité plutôt que de la quantité, du temps libéré plutôt que de l’accumulation matérielle.

L’Europe pourrait devenir un laboratoire d’un modèle post-croissance21 fondé sur la qualité de vie, la santé des écosystèmes et la cohésion sociale.

7.2 Pacte social de transition

Aucune transition écologique ne peut réussir sans justice sociale. La sobriété ne peut être acceptée que si elle est perçue comme équitable. Or les inégalités environnementales sont profondes : exposition différenciée aux risques climatiques (canicules, inondations, précarité énergétique), capacité d’adaptation inégale selon les revenus, empreinte carbone très concentrée dans les catégories les plus aisées.

Un pacte social de transition devrait reposer sur plusieurs piliers : redistribution ciblée des revenus carbone, investissements massifs dans les services publics (transport, santé, éducation), accompagnement des secteurs et des territoires les plus exposés aux reconversions, fiscalité écologique progressive.

L’épisode des « gilets jaunes », qui a fait le tour du monde, a montré qu’une politique climatique perçue comme injuste peut susciter un rejet massif. À l’inverse, une transition pensée comme un projet de justice et de protection peut devenir un facteur de cohésion.

L’Europe pourrait ici affirmer une spécificité : faire de la transition écologique non pas un coût à compenser, mais le cœur d’un nouveau contrat social.

7.3 Renouvellement des principes économiques structurant la construction européenne

La Communauté puis l’Union européennes se sont construites autour de principes structurants : primat du consommateur, promotion de la concurrence, intégration par le marché, et défense d’un libre-échange largement inconditionnel. Ce cadre a favorisé l’efficacité économique et l’intégration continentale, mais il montre aujourd’hui ses limites face aux vulnérabilités stratégiques et aux contraintes écologiques. La crise du COVID-19, la guerre en Ukraine et le repositionnement stratégique des États-Unis ont mis en évidence la dépendance européenne dans des secteurs clés : énergie, semi-conducteurs, médicaments, technologies critiques.

Ces crises ont réhabilité des notions longtemps marginalisées dans le débat européen : politique industrielle, autonomie stratégique, souveraineté technologique, sécurisation des chaînes d’approvisionnement… La montée en puissance du « rouleau compresseur22 » chinois accélère la perception de ce besoin de renouveau.

Le défi est désormais d’articuler marché intérieur et planification stratégique, concurrence et coordination, ouverture commerciale et protection des intérêts fondamentaux.

Un modèle économique européen renouvelé pourrait donc reposer sur :

  • une politique industrielle verte coordonnée à l’échelle continentale ;
  • une conception des échanges commerciaux soucieuse des enjeux de souveraineté et de transition écologique ;
  • une révision des règles budgétaires permettant l’investissement de long terme, notamment nécessaire pour sortir les pays européens de leur dépendance aux fossiles;
  • une mobilisation et une régulation de la finance et de la monnaie23 au service de la transition et dans le respect de l’équité sociale;
  • une reconnaissance explicite des limites planétaires comme contrainte structurante de l’action économique (sous forme de réglementations et d’incitations adaptées), devant s’inscrire dans une planification écologique repensée, et générant des signaux-prix cohérents;
  • des comptabilités (micro et macroéconomiques) permettant de « compter ce qui compte ».

7.4 Refonte de la gouvernance européenne

Enfin, la crédibilité du modèle européen dépendra de sa capacité à adapter sa gouvernance.

Les défis climatiques, énergétiques et géopolitiques exigent des décisions rapides, cohérentes et dotées de moyens financiers suffisants. Or l’architecture institutionnelle actuelle demeure fragmentée et souvent paralysée par la règle de l’unanimité.

Plusieurs scénarios (éventuellement complémentaires) sont à envisager et devraient faire l’objet de débats approfondis :

  • un approfondissement fédéral avec un budget commun significatif ;
  • une Europe à plusieurs vitesses permettant à un noyau de pays d’aller plus loin ;
  • un renforcement du rôle du Parlement européen pour légitimer les choix stratégiques ;
  • une mutualisation accrue des investissements stratégiques (défense, énergie, infrastructures).

La question est institutionnelle et démocratique. Un modèle européen ne peut être crédible que s’il repose sur une légitimité politique renforcée et une participation citoyenne accrue. L’Europe pourrait devenir un modèle, mais à condition d’accepter une transformation profonde de ses référentiels, comme indiqué plus haut, en redéfinissant la prospérité, en refondant le pacte social, en renouvelant ses principes économiques et en réinventant sa gouvernance. Dans un monde marqué par la montée des autoritarismes et l’instabilité climatique, l’Europe pourrait incarner une voie singulière : une puissance de transition, combinant démocratie, justice sociale et soutenabilité écologique. 

La question n’est sans doute plus de savoir si l’Europe peut devenir un modèle, mais si elle peut se permettre de ne pas le devenir…

Conclusion générale : la bifurcation civilisationnelle c’est le défi européen.

L’histoire longue de la Terre révèle une planète dynamique, façonnée par des crises, des transitions et des réorganisations profondes. Les extinctions massives n’ont jamais interrompu la trajectoire du vivant ; elles ont ouvert d’autres configurations biologiques. À l’échelle géologique, la Terre n’est pas fragile : elle est plastique. Rien n’indique qu’un changement climatique majeur mettrait fin à la vie sur la planète. La biosphère persisterait, sous des formes transformées.

Ce qui est fragile, en revanche, c’est la configuration particulière qui a permis l’émergence d’une civilisation technologique globale. Durant l’Holocène, une stabilité climatique exceptionnelle — températures modérées, cycles hydrologiques prévisibles, niveau marin relativement constant — a fourni le cadre dans lequel l’agriculture, les villes et les institutions complexes ont pu se développer. Cette stabilité n’avait rien d’inévitable ; elle résultait d’un ensemble de conditions géophysiques favorables.

Aujourd’hui, une espèce issue de cette histoire est devenue capable d’altérer ces équilibres. Homo sapiens est un agent géophysique : il modifie la composition de l’atmosphère, les cycles biogéochimiques, la biodiversité et les flux énergétiques planétaires. Pour la première fois, une composante du système Terre comprend — au moins partiellement — les mécanismes qu’elle perturbe. La transformation n’est plus aveugle : elle est consciente.

La Terre survivra. Ce qui reste ouvert est la forme que prendra la coévolution entre l’humanité et la planète — et le type de civilisation qui émergera de cette bifurcation. L’enjeu central est donc la capacité d’une civilisation complexe à se maintenir sans dégrader les conditions qui la rendent possible. Dans l’Anthropocène, la puissance de transformation acquise par le vivant atteint un seuil critique : elle exige une capacité de régulation consciente.

Trois trajectoires stylisées se dessinent. Une expansion technologique cherchant à repousser indéfiniment les limites, au risque d’un emballement écologique. Une transition autoritaire planifiée, potentiellement efficace mais politiquement restrictive. Ou une transition démocratique sous contrainte, plus incertaine mais susceptible de concilier liberté et soutenabilité. Aucune de ces voies n’est assurée. La question décisive est politique : une société libre peut-elle intégrer volontairement des limites sans se renier ? Si oui, une modernité écologique démocratique est possible. Sinon, la contrainte environnementale pourrait servir de justification à la concentration du pouvoir.

C’est le défi européen ! 

Alain Grandjean


Notes

  1. L’activité scientifique est essentielle pour la survie de l’humanité. Elle est liée à des institutions, des procédures, une forte indépendance des chercheurs, leur déontologie et à son contrôle. La préservation de ces dispositifs est stratégique et les attaques de l’administration Trump en la matière sont très préoccupantes. Elles sont en tout état de cause délétères pour les Etats-Unis. Voir le livre du conseil scientifique de la FNH. Quelles sciences pour le monde à venir ? Face au dérèglement climatique et à la destruction de la biodiversité ↩
  2. L’« intelligence » artificielle est très consommatrice d’énergie; bien employée elle est source d’apprentissage et d’accès à plus de connaissances. Elle peut être et est très souvent, malheureusement , source d’affaiblissement de l’esprit critique et de l’autonomie intellectuelle. ↩
  3. Il y a eu des empires et des tentatives impériales dans des sous-parties de l’ Europe (l’empire Byzantin, le Saint Empire germanique puis l’empire austro-hongrois, l’empire carolingien, l’empire ottoman …) et d’autre part des comportements coloniaux de type impérial de la part des pays dominants (l’Angleterre, l’Espagne,le Portugal, la France) mais tout cela n’a jamais fait de l’Europe un empire au sens où le sont la Chine et les Etats-Unis. Dit autrement, l’Europe a voulu être puissante dans le passé, mais sa puissance est restée fragmentée. Après 1945, elle a choisi de privilégier une forme de puissance non militaire, multilatérale, fondée sur l’économie et la diplomatie plutôt que sur la force. ↩
  4. Donald Trump n’a pas pu s’empêcher d’évoquer cette justification à l’occasion de sa guerre contre l’Iran. ↩
  5. Winthrop, J. (1630). A Model of Christian Charity. Sermon prononcé à bord de l’Arbella ↩
  6. O’Sullivan, J. L. (1845). Annexation. United States Magazine and Democratic Review. ↩
  7. Wilson, W. (1917, 2 avril). Address to Congress on asking for a declaration of war against Germany. Washington, D.C. ↩
  8. La liberté d’expression y est protégée quasi sans restriction par le Premier Amendement de la Constitution, même pour des discours controversés ou offensants, sauf en cas d’incitation immédiate à la violence. En Europe, ce droit est soumis à des limites explicites visant à protéger la sécurité, la dignité et les autres droits fondamentaux, notamment contre les discours haineux. Cette divergence reflète des traditions historiques et philosophiques différentes, entre une approche libertaire et méfiante vis-à-vis de l’État aux États-Unis et une approche équilibrée visant à préserver la cohésion sociale en Europe. Voir Hate speech: Comparing the US and EU approaches ↩
  9. Le livre de François Jullien permet de se faire une idée de ces différences. De l’Être au Vivre. Lexique euro-chinois de la pensée, Gallimard (Bibliothèque des idées, 2015). ↩
  10. Dans la pensée confucéenne, l’individu n’existe jamais isolément : il est défini par ses relations (famille, hiérarchie, société). Comme l’explique le philosophe Tu Weiming, la personne est un « nœud de relations », non une entité autonome absolue. voir Confucian Thought: Selfhood as Creative Transformation.(State University of New York Press. 1985. ↩
  11. Le système politique chinois. Un nouvel autoritarisme.Presses de Sciences Po, 2014 (2e éd. mise à jour 2022). ↩
  12. Chine, La revanche de l’ Empire, la fin de l’Occident? Fayard. 2026. ↩
  13. Voir Arthur Lassus, Que se passe-t-il en Chine sur le front de la décarbonation ? 2025. ↩
  14. Sciences et Civilisation en Chine. Une Introduction. Ed. Philippe Picquier -1999 ↩
  15. The China Model. Political Meritocracy and the Limits of Democracy. Princeton University Press. 2016 ↩
  16. Voir cette note de l’Institut Montaigne : Chine 2035 : un succès sans entraves ? (pages 102 et suivantes) : et celle de Paul Charon et Jean-Baptiste Jeangène Vilmer, « Les opérations d’influence chinoises », Institut de Recherche Stratégique de l’Ecole Militaire, Octobre 2021. ↩
  17. The Rise of Modern Chinese Thought. Ed.Michael Gibbs Hill.2023. ↩
  18. Id note 3 : Il y a eu des empires et des tentatives impériales dans des sous-parties de l’ Europe (l’empire Byzantin, le Saint Empire germanique puis l’empire austro-hongrois, l’empire carolingien, l’empire ottoman …) et d’autre part des comportements coloniaux de type impérial de la part des pays dominants (l’Angleterre, l’Espagne,le Portugal, la France) mais tout cela n’a jamais fait de l’Europe un empire au sens où le sont la Chine et les Etats-Unis. Dit autrement, l’Europe a voulu être puissante dans le passé, mais sa puissance est restée fragmentée. Après 1945, elle a choisi de privilégier une forme de puissance non militaire, multilatérale, fondée sur l’économie et la diplomatie plutôt que sur la force. ↩
  19. Voir le livre dirigé par Alain Papaux et Dominique Bourg : Vers une société sobre et désirable – PUF.2010. ↩
  20. Dans cette courte vidéo : Les méfaits de l’innovation contre le progrès ↩
  21. Voir cette étude publiée en 2025 dans le Lancet Planetary Health.G. Kallis et al. Post-growth: the science of wellbeing within planetary boundaries.2025 ↩
  22. Selon le titre du rapport du Haut conseil à la stratégie et au plan de Thomas Grjebine et al. qui montre que la Chine est devenue un acteur industriel dominant, représentant près d’un tiers de la production manufacturière mondiale. Jusqu’à 70 % de la production industrielle allemande, 60 % de l’italienne et 36 % de la française sont exposés à la concurrence chinoise. Dans des secteurs stratégiques comme l’automobile et les batteries, la Chine exerce une pression systémique grâce à ses coûts bas, ses investissements massifs et ses chaînes de valeur intégrées. Le rapport souligne que les instruments européens actuels (anti‑dumping, droits de douane sectoriels) sont insuffisants et préconise une protection tarifaire générale d’environ 30 % et une dépréciation de l’euro de 20 à 30 % pour préserver la compétitivité et la souveraineté industrielle. ↩
  23.  Y compris la remise en cause du « dogme » de l’euro fort, qui défavorise l’économie européenne face aux Etats-Unis et à la Chine. ↩

The post Homo sapiens face à Gaia 3/3 : le défi européen. appeared first on Chroniques de l'Anthropocène.

PDF

03.03.2026 à 09:34

Homo sapiens face à Gaia 2/3 : de l’évolution du vivant à la bifurcation civilisationnelle.

Alain Grandjean

L’évolution du vivant et l’apparition d’Homo sapiens, première espèce biologique à « franchir les limites planétaires ». Macro et microévolution, scenarii climatiques et conséquences.

The post Homo sapiens face à Gaia 2/3 : de l’évolution du vivant à la bifurcation civilisationnelle. appeared first on Chroniques de l'Anthropocène.

Texte intégral (7525 mots)

Deuxième Partie

Nous avons vu dans la partie précédente comment le vivant et le non-vivant ont coévolué et donné des exemples de mécanismes de couplage et de régulation. Nous avons vu aussi que ces mécanismes n’ont pas empêché des extinctions massives. Nous allons, dans cette deuxième partie, nous focaliser sur l’évolution du vivant et l’apparition d’Homo sapiens, première espèce biologique à « franchir les limites planétaires ».

3. L’histoire de la vie sur Terre, de la dépendance absolue à la transformation du monde 

L’histoire de la vie sur Terre est une histoire d’innovations successives, de crises et de rebonds, qui s’étend sur plus de 3,5 milliards d’années. Si la vie est apparue sous des formes très variées, il a été possible, grâce à l’anatomie, à la génétique et à la biologie moléculaire, de classer cette diversité dans un arbre du vivant, hiérarchisé en embranchements, classes, ordres, genres et espèces. À titre d’exemple, l’humain appartient à l’embranchement des vertébrés, à la classe des mammifères, à l’ordre des primates et au genre Homo, tandis que les abeilles se situent dans l’embranchement des arthropodes, classe des insectes, ordre des hyménoptères et genre Apis.

Aujourd’hui, seulement 1,5 million d’espèces ont été identifiées, hors bactéries1, sur des dizaines de millions que l’on suppose existantes. 

3.1 Les grandes étapes de la vie sur Terre

La classification permet de distinguer deux formes d’évolution, la macroévolution et la microévolution :

  • La macroévolution, ou évolution des grands plans d’organisation, concerne l’apparition de nouveaux embranchements et l’architecture générale des organismes. Les grandes innovations, comme la formation du tronc neural ou l’apparition de l’œuf amniotique, relèvent de ce domaine.
  • La microévolution, ou évolution d’une espèce vers une autre, se produit à l’intérieur des embranchements existants et se manifeste par des variations adaptatives au sein de populations.

Les phénomènes macroévolutifs restent parmi les énigmes les plus fascinantes de la biologie, car leur origine et leur rythme sont encore partiellement incompris. On sait que de petites modifications dans des gènes régulateurs clés du développement peuvent provoquer de grands changements morphologiques. Outre les gènes Hox, qui organisent le plan corporel, des gènes comme Pax6 (développement des yeux), les protéines BMP et FGF (formation des os et des membres) etc. peuvent transformer la forme et la structure des organismes. Les microARN et régulateurs épigénétiques2 ajoutent un niveau supplémentaire, modulant l’expression des gènes sans changer le code génétique. Ces exemples montrent que les innovations morphologiques majeures résultent souvent de l’interaction entre changements génétiques mineurs, développement embryonnaire et pressions écologiques, offrant des mécanismes concrets pour expliquer l’apparition rapide de nouvelles formes corporelles.

Mais nous n’irons pas plus loin ici dans le domaine complexe des mécanismes évolutifs, qui n’est pas en tant que tel lié à notre propos.

L’histoire de la vie combine verticalité — de grands sauts évolutifs au niveau du « tronc » de l’arbre du vivant — et buissonnements horizontaux, qui génèrent une diversité et une variabilité extraordinaires.

3.2 Grandes étapes et innovations majeures

Les grandes acquisitions des organismes pluricellulaires se sont produites sur une période relativement courte de l’histoire de la vie. Tous les embranchements existants datent du Cambrien, il y a environ 540 millions d’années, tandis que la dernière classe connue est apparue au Jurassique, il y a 135 millions d’années. Aucun nouvel ordre majeur n’est apparu depuis 30 millions d’années.

Voici une chronologie simplifiée des principales innovations, avec quelques repères physiques et climatiques :

InventionÂge approximatif (millions d’années)Commentaire
Univers13 800Naissance de l’Univers, formation des premiers atomes (H, He, traces de Li)
Formation des éléments lourds13 500 Supernovae, apparition du carbone, de l’oxygène, du fer, de l’or, du plomb
Naissance de la Terre
Précambrien
4 600Formation de la planète dans le système solaire
Eau liquide4 400-4 200Stabilisation de l’eau, océans initiaux
Premières cellules vivantes3800-3500Bactéries anaérobies avec milieu intérieur et membrane
Photosynthèse oxygénique3000Libération initiale d’oxygène, production de matière organique
Oxygénation de l’atmosphère2400Grande Oxydation, modification durable de l’atmosphère
Multicellulaires, reproduction sexuée2100-1200Apparition des premiers organismes pluricellulaires
Glaciation Huronnienne2300Première glaciation globale connue
Seconde oxygénation800-580Couche d’ozone Apparition de la faune de l’Ediacarien
Paléozoïque
(« Ère primaire »)
540-252
Explosion du Cambrien540-510Naissance de la plupart des embranchements, invention du neurone
Poissons et plantes500Diversification marine et début de la colonisation terrestre
Amphibiens410Sortie de l’eau, adaptation à la gravité, peau et régulation nerveuse
Reptiles (œuf amniotique)350Indépendance de l’eau pour la reproduction
Invention du vol (insectes)325Colonisation de nouvelles niches écologiques
Dinosaures300Radiations mésozoïques3
Mésozoïque
(« Ère secondaire »)
252-66
Mammifères (placenta, développement intra-utérin)200Précurseurs des primates
Oiseaux, endothermie150Adaptation au vol et régulation thermique
Plantes à fleurs (angiospermes)100Diversification végétale et écologique
Cénozoïque
(« Ères tertiaire et quaternaire »)
66-2,5
Cétacés, premiers primates (Purgatorius)70Diversification mammalienne
Grands mammifères40Précurseurs des lignées modernes
Homo2,8Espèce dotée d’intelligence consciente

4. De la dépendance absolue à la transformation du monde : la trajectoire d’autonomisation du vivant

4.1 La vie naît dans la dépendance

Aux origines, la vie apparaît dans un monde entièrement dominant. Les premières formes vivantes — organismes unicellulaires proches des bactéries — sont totalement dépendantes de la chimie locale, de la température ambiante, de la composition de l’océan, de l’énergie disponible dans leur environnement immédiat. Ces premiers organismes ne contrôlent rien.
Ils subissent. La Terre primitive impose ses conditions. La vie s’y insère.

Pourtant, dès cette étape, un phénomène décisif apparaît : la capacité d’exploiter des sources d’énergie diverses. C’est ainsi, comme on l’a vu, qu’est inventée la photosynthèse oxygénique, modifiant progressivement l’atmosphère. L’apparition d’oxygène libre — bien avant les organismes complexes — constitue la première transformation planétaire d’origine biologique.

La dépendance est encore totale, mais une première rétroaction s’installe : le vivant commence à modifier son milieu.

4.2 L’invention de la cellule complexe : un saut d’organisation

L’apparition des cellules eucaryotes marque un changement majeur. La compartimentation interne, l’intégration d’anciennes bactéries devenues mitochondries, une régulation génétique plus fine permettent une meilleure gestion de l’énergie, une plus grande stabilité interne et une indépendance accrue vis-à-vis des fluctuations extérieures.

L’organisme ne dépend plus immédiatement et passivement de la chimie brute du milieu : il interpose une régulation. Il crée et maintient un milieu intérieur relativement stable, distinct des variations extérieures. Ce principe — que la physiologie moderne nomme homéostasie, concept formalisé au XIXᵉ siècle par Claude Bernard puis approfondi par Walter Cannon — repose sur des mécanismes actifs de contrôle (échanges membranaires, régulation métabolique, boucles de rétroaction).

L’autonomie biologique ne consiste donc pas à s’affranchir du monde extérieur, mais à stabiliser en permanence les conditions internes nécessaires à la vie, malgré l’instabilité du dehors. Cette capacité marque une étape décisive dans la complexification du vivant : l’organisme devient un système organisé qui résiste partiellement aux contraintes environnementales.

4.3 La multicellularité : la complexité internalisée

Avec la multicellularité, l’autonomie franchit un nouveau seuil. Des cellules spécialisées coopèrent. Certaines captent l’énergie, d’autres assurent la protection, d’autres la reproduction, d’autres la coordination. L’organisme devient un système intégré capable de se déplacer, de choisir son environnement, d’exploiter des niches écologiques variées. À partir de l’explosion biologique du Cambrien, la diversification morphologique s’accélère. Les animaux développent des systèmes nerveux, des organes sensoriels et des stratégies prédatrices. L’environnement n’est plus seulement subi : il est exploré.

4.4 La conquête des milieux : s’affranchir des contraintes

La sortie des eaux vers les continents marque une étape supplémentaire d’autonomisation avec l’apparition de structures de soutien contre la gravité, de protection contre la dessiccation et de reproduction indépendante de l’eau libre. Les plantes modifient les sols.
Les animaux colonisent l’air. L’organisme n’est plus limité à un milieu spécifique : il transforme progressivement les contraintes en opportunités évolutives.

4.5 Le cerveau et la modélisation du monde

Avec l’augmentation de la complexité neuronale chez certains vertébrés, un nouveau type d’autonomie apparaît : l’autonomie cognitive. L’organisme n’agit plus uniquement par réponse immédiate. Il anticipe. Chez les mammifères, puis chez les primates, la capacité à représenter mentalement l’environnement permet l’apprentissage, une transmission culturelle rudimentaire et une adaptation comportementale rapide. L’évolution biologique commence à être complétée par une évolution comportementale et culturelle..

4.6 Homo sapiens : l’émergence de la conscience et de l’autonomie symbolique

Avec Homo sapiens, une rupture qualitative s’opère. Le langage symbolique permet la transmission cumulative des connaissances, la planification à long terme, la coopération à grande échelle4. L’humain ne se contente pas de perceptions ; il est conscient de ses actes et de leurs conséquences. Il ne se contente plus d’exploiter un environnement, il le reconfigure. 

Agriculture, urbanisation, techniques, énergie fossile : la transformation du milieu devient systématique. Pour la première fois dans l’histoire du vivant, une espèce modifie la composition atmosphérique, le cycle du carbone, la biodiversité planétaire, l’équilibre climatique global.

L’histoire de la vie : une complexification croissante vers plus d’autonomie

L’histoire de la planète et de la vie se décrypte à différentes échelles de temps.
– Milliards d’années : stabilisation de l’eau liquide, Grande Oxydation, premières glaciations Huronniennes et autres ;
Millions d’années : explosion du Cambrien, colonisation terrestre, crises paléozoïques et mésozoïques ;
– Centaines de milliers d’années : cycles glaciaires et interglaciaires du Quaternaire, avec des oscillations de plusieurs degrés Celsius ;
– Siècles : empreinte humaine actuelle, la plus rapide de toute l’histoire connue.

On peut résumer l’histoire du vivant comme une succession de franchissement de seuils, avec un effet-cliquet (les acquisitions sont irréversibles) :
1. L’exploitation de l’énergie locale
2. La stabilisation d’un milieu intérieur
3. La coopération multicellulaire
4. L’exploration active de tous les milieux
5. La représentation mentale du monde
6. La transformation structurelle de l’environnement.

Chaque étape accroît l’autonomie relative de l’organisme. Mais cette autonomie n’est jamais absolue. Elle repose toujours sur la stabilité physique et chimique de la planète. Malgré la complexification, la vie demeure dépendante de l’énergie stellaire, de la stabilité orbitale, de la chimie planétaire. L’autonomie croissante ne supprime pas cette dépendance fondamentale, elle la masque. L’espèce humaine, en atteignant un pouvoir de destruction global, révèle cette illusion d’indépendance.

5. Le défi contemporain : une bifurcation civilisationnelle de la prédation à la symbiose

5.1 Les limites planétaires

Durant des milliards d’années, comme on l’a vu, la complexification biologique a accru l’autonomie des organismes vis-à-vis des contraintes environnementales. Cette autonomie doublée d’une puissance phénoménale, depuis la révolution thermo-industrielle a rendu l’humanité capable de « franchir des limites planétaires5».Ce concept formulé par Johan Rockström et ses collègues, identifie neuf seuils critiques du fonctionnement de la Terre au-delà desquels la stabilité des conditions planétaires pourrait être compromise. Ces limites couvrent à la fois le climat, les cycles biogéochimiques, la biodiversité et l’impact des activités humaines. Elles peuvent être mises en relation avec les grands mécanismes de régulation du système Terre, vus précédemment, qui agissent depuis des millions voire des milliards d’années pour maintenir des conditions relativement stables.

La limite climatique, liée aux concentrations de CO₂ et à la température globale, est directement associée au cycle carbonate‑silicate et à d’autres rétroactions climatiques planétaires, comme les variations de glace et la circulation océanique, qui ont régulé le climat terrestre sur des échelles géologiques. La perte de biodiversité et la perturbation des écosystèmes affectent la régulation biologique, comparable aux boucles de rétroaction locales observées dans les écosystèmes, qui influencent la productivité primaire, le cycle du carbone et d’autres cycles élémentaires.

Les perturbations du cycle de l’azote et du phosphore (voir encadré), liées à l’agriculture et aux activités industrielles, dépassent les capacités naturelles de recyclage des sols et des océans. Historiquement, ces cycles ont été régulés par la décomposition, l’érosion et la sédimentation, assurant un équilibre chimique à long terme. L’acidification des océans, conséquence de l’augmentation du CO₂, reflète l’interaction entre biominéralisation (précipitation de carbonates par le plancton et les coraux) et régulation chimique de l’eau de mer.

Les cycles de l’azote et du phosphore et leur rôle planétaire
L’azote (N) et le phosphore (P) sont deux nutriments essentiels pour la vie, limitant souvent la croissance des plantes et du phytoplancton, et jouant ainsi un rôle central dans la productivité primaire et le cycle du carbone. L’azote atmosphérique (N₂) est abondant mais chimiquement inerte : pour être assimilable, il doit être fixé en formes réactives comme l’ammonium ou le nitrate. Cette fixation est réalisée naturellement par certaines bactéries, par la foudre, ou par l’activité humaine via les engrais et la combustion de combustibles fossiles. L’azote est ensuite recyclé par l’ammonification, la nitrification et la dénitrification, qui réinjectent une partie de N dans l’atmosphère. Les excès d’azote, surtout liés aux activités humaines, provoquent l’eutrophisation des eaux et des émissions de N₂O, un puissant gaz à effet de serre.

Le phosphore, quant à lui, n’a pas de forme gazeuse. Il circule principalement par l’érosion des roches, le transport sédimentaire et le recyclage organique. Sa disponibilité dans les sols et les océans est donc limitée et se régénère lentement. Comme pour l’azote, un excès de phosphore provenant des engrais et eaux usées entraîne une surproduction de biomasse dans les milieux aquatiques et la perturbation des écosystèmes.

Le rapport N/P de Redfield, qui vaut en moyenne 16:1 en atomes dans le phytoplancton et les océans, traduit l’équilibre optimal entre ces deux nutriments pour soutenir la croissance biologique. Un déséquilibre de ce ratio conduit à une limitation dominante par l’azote (N/P < 16) ou par le phosphore (N/P > 16), ce qui influence directement la productivité primaire et la fixation de carbone.

Ainsi, les cycles de l’azote et du phosphore sont bien plus que des flux chimiques : ils constituent des boucles de rétroaction planétaires. Leur disponibilité régule la biomasse terrestre et océanique, module le stockage du carbone et interagit avec les cycles du CO₂ et de l’oxygène. Les perturbations anthropiques récentes – apport massif d’engrais, pollution et déforestation – dépassent largement les capacités naturelles de régulation, menaçant la stabilité des écosystèmes et la résilience de la planète.

Certaines limites touchent des mécanismes plus spécifiques : la couche d’ozone stratosphérique6, essentielle pour filtrer les rayons ultraviolets, dépend de rétroactions chimiques globales entre l’atmosphère et le rayonnement solaire ; les aérosols atmosphériques modulent le climat régional et les cycles hydrologiques ; enfin, l’accumulation de nouvelles entités moléculaires (plastiques, polluants chimiques) représente une perturbation récente dont la régulation naturelle est encore limitée.

Ainsi, toutes ces limites planétaires peuvent être comprises comme des seuils critiques pour les boucles de rétroaction et les cycles régulateurs de la Terre. Certaines sont directement liées aux grands cycles géochimiques et climatiques, d’autres aux boucles écologiques et biologiques. Dépasser ces seuils, même localement, risque de compromettre cette stabilité globale, de la même manière qu’un organisme peut perdre sa régulation interne en cas de perturbation extrême.

Cette perspective permet de comprendre le paradoxe d’Homo sapiens : le « dernier-né » de l’évolution, doté d’intelligence consciente, possède la capacité unique de modifier ou de détruire les conditions d’habitabilité de la planète pour sa propre espèce, en un laps de temps infinitésimal à l’échelle géologique. L’augmentation des gaz à effet de serre, l’érosion de la biodiversité, la modification des cycles biogéochimiques mettent en risque la stabilité qui fut nécessaire à l’évolution lente de la complexité. La trajectoire d’autonomisation devient ambivalente, elle révèle une puissance capable de fragiliser les conditions qui l’ont rendue possible.
La complexité biologique atteint ainsi un point critique : l’organisme le plus autonome, a le pouvoir d’altérer les conditions mêmes qui ont rendu possible son émergence.
Cette dynamique introduit une dimension nouvelle dans la réflexion sur les conditions planétaires : l’intelligence consciente devient à la fois produit et variable du système.

L’humanité se trouve aujourd’hui devant une bifurcation majeure : passer d’une société de prédateurs inconscients à une espèce capable de vivre en symbiose avec elle-même et avec la planète. Cette transition ne relève plus seulement de la biologie ou de la macroévolution, mais de la culture, de la conscience et de la responsabilité écologique. C’est le défi inédit de notre époque : préserver les conditions planétaires de la vie tout en maintenant la complexité sociale et technologique acquise.

5.2 Perspectives scientifiques : vers quelle Terre ?

Vers quel état du système Terre pourrions-nous nous diriger au XXIᵉ siècle et au-delà ? De plus en plus de travaux de prospective sont réalisés à ce jour. On évoquera plus loin les synthèses du GIEC sur le climat. Concernant plus globalement le franchissement des limites planétaires on peut citer une étude7, publiée en 2025 dans Nature, qui utilise un modèle intégré pour projeter l’évolution de huit des neuf limites planétaires (dont climat, perte de biodiversité, cycles de l’azote et du phosphore, eau douce, usage des sols, polluants, etc.) jusqu’en 2050 et au‑delà selon différents scénarios socio‑économiques. Ce travail montre que, dans un scénario business as usual, presque toutes les limites continueront à se détériorer, tandis que des politiques ambitieuses (transition énergétique, changements alimentaires, usage efficace de l’eau et des nutriments) pourraient réduire l’ampleur du dépassement de ces limites, bien qu’il reste difficile de les ramener toutes dans une « zone sûre ». Ce type de prospective montre explicitement que le changement climatique n’est pas un problème isolé, mais qu’il interagit avec d’autres processus régulateurs de la Terre :

  • la perte de biodiversité, qui affaiblit la résilience des écosystèmes et leur capacité à stocker du carbone ;
  • la perturbation des cycles de l’azote et du phosphore, qui modifient la productivité terrestre et océanique et contribuent à l’eutrophisation ;
  • le stress sur les ressources en eau douce, qui, combiné au réchauffement, exacerbe la sécheresse et les conflits pour l’eau ;
  • l’acidification des océans, qui affecte les puits de carbone et les chaînes alimentaires marines.

Des analyses interdisciplinaires8 explorent également la façon dont les progrès vers les Objectifs de développement durable (ODD) peuvent entrer en tension ou en synergie avec ces limites planétaires, soulignant la nécessité d’une approche intégrée pour éviter des compromis systématiques (comme une intensification agricole qui réduit la faim mais aggrave la dégradation des sols et la pollution de l’eau).

Nous allons approfondir maintenant les perspectives en matière climatique, les plus explorées, grâce au GIEC.

5.2.1 Scénarios climatiques plausibles et impacts multidimensionnels

Les trajectoires climatiques étudiées par le GIEC et enrichies par les analyses des limites planétaires permettent de distinguer trois grandes familles de trajectoires. Résumons-les très schématiquement9 :

  • +1,5°C/+2 °C : stabilisation exigeant une réduction rapide et massive des émissions, neutralité carbone vers le milieu du siècle.
  • +2,5°C/+3 °C : trajectoires intermédiaires correspondant à des engagements pris internationalement et partiellement respectés.
  • ≈+4 °C : scénario de forte consommation d’énergies fossiles et de faible coordination internationale. 

NB.: Ces chiffres (2°C à 5°C) peuvent paraître modestes à l’échelle quotidienne. Rappelons que 5°C, c’est l’écart de température qui nous sépare de la dernière glaciation — il y a 20 000 ans — alors que les variations dont on parle se matérialisent sur l’ordre d’un siècle.

Ces scénarios ne concernent pas seulement le climat, mais se répercutent sur les écosystèmes, la santé humaine, les ressources, et les rétroactions planétaires. Précisons leurs impacts.

Scénario +1,5 °C/+2°C :

  • Événements extrêmes : vagues de chaleur et sécheresses modérées, quelques inondations localisées.
  • Écosystèmes : stress limité sur les récifs coralliens, zones humides et forêts tropicales ; pertes d’espèces sensibles possibles.
  • Santé humaine : élévation modérée du risque de maladies vectorielles, impacts encore contenus.
  • Ressources et agriculture : baisse ponctuelle de productivité dans certaines régions chaudes, stress hydrique limité, systèmes alimentaires globalement résilients.
  • Rétroactions : émissions de méthane et CO₂ du pergélisol limitées, cycle du carbone encore stable.

Scénario +2,5 °C/+3°C :

  • Événements extrêmes : multiplication des vagues de chaleur sévères, sécheresses prolongées et inondations plus fréquentes et étendues, événements simultanés sur plusieurs continents.
  • Écosystèmes : dégradation significative des récifs coralliens et zones humides, perte progressive de certaines forêts tropicales, accentuation de l’extinction d’espèces.
  • Santé humaine : expansion des zones à maladies vectorielles (paludisme, dengue), stress thermique marquant, affectant la productivité et la santé dans les zones subtropicales.
  • Ressources et agriculture : réduction notable des rendements agricoles dans plusieurs « greniers mondiaux », pénuries d’eau plus fréquentes, pressions sur infrastructures hydriques et énergétiques.
  • Rétroactions planétaires : émissions de méthane et CO₂ issues du pergélisol et des sols commencent à amplifier le réchauffement, fragilisant les puits de carbone naturels.
  • Autres limites planétaires : perte de biodiversité plus marquée, perturbation des cycles de N et P (eutrophisation, pollution des eaux), stress accru sur l’eau douce.

Scénario +4°C :

  • Événements extrêmes : vagues de chaleur et sécheresses extrêmes fréquentes, tempêtes et inondations d’intensité historique, événements multiples simultanés sur plusieurs continents.
  • Écosystèmes : effondrement partiel des récifs coralliens, dégradation majeure de l’Amazonie et des forêts tropicales, pertes massives de biodiversité, fragmentation des habitats et extinctions accélérées.
  • Santé humaine : zones tropicales difficiles ou impossibles à habiter, forte mortalité liée aux vagues de chaleur, propagation rapide des maladies vectorielles, stress hydrique et nutritionnel généralisé.
  • Ressources et agriculture : crises alimentaires et hydriques majeures, migrations climatiques massives, perturbation des infrastructures industrielles et commerciales, accentuation des inégalités sociales et géopolitiques.
  • Rétroactions et limites planétaires : forte libération de méthane et CO₂ du pergélisol et des sols forestiers, réduction de la capacité océanique à absorber le carbone, emballement partiel du système climatique et amplification des autres limites planétaires (biodiversité, cycles biogéochimiques, eau, pollution).

Ces scénarios montrent que le climat n’est pas un problème isolé : il interagit avec toutes les autres limites planétaires. La perte de biodiversité réduit la résilience des écosystèmes et leur capacité à stocker le carbone ; les cycles de l’azote et du phosphore influencent la productivité primaire et la santé des océans ; l’eau douce, l’acidification et la pollution chimique amplifient les impacts climatiques sur les sociétés et la biosphère. Ces interactions peuvent créer des boucles de rétroaction, accélérant le dépassement de seuils critiques et réduisant la capacité de la planète à maintenir des conditions stables.

Terre et Vénus : une divergence fondamentale
La comparaison avec Vénus revient fréquemment dans le débat public. Elle peut être clarifiée scientifiquement. Vénus présente une atmosphère composée à plus de 96 % de CO₂, une pression au sol d’environ 92 bars et une température moyenne de surface proche de 460 °C. La Terre, en comparaison, possède une atmosphère d’environ 1 bar, une concentration actuelle de CO₂ d’environ 0,04 % (≈ 420 ppm), une température moyenne d’environ 15 °C (en croissance).

Les modèles climatiques indiquent qu’un emballement complet de type runaway greenhouse — impliquant l’évaporation totale des océans et une accumulation massive de vapeur d’eau dans l’atmosphère — nécessiterait un forçage radiatif bien supérieur à celui que pourraient produire les combustibles fossiles disponibles sur Terre. Autrement dit, la transformation de la Terre en Vénus est considérée comme physiquement exclue dans les conditions actuelles.

Mais cette conclusion ne doit pas masquer le fait qu’un monde à +3 °C ou +4 °C serait profondément différent de celui qui a vu émerger l’agriculture, les villes et les réseaux industriels mondialisés. La comparaison pertinente n’est donc pas avec Vénus, mais à l’inverse avec l’Holocène, période de relative stabilité climatique durant laquelle se sont développées les civilisations humaines.

5.2.2 Les points de bascule et les risques systémiques

Nous avons vu dans un précédent post (voir le post tipping points, lois de puissance et économie climatique de ce blog) que ces évolutions de température pouvaient conduire le système Terre à « toucher » des points de bascule (ou tipping points) climatiques : fonte des calottes glaciaires, ralentissement de l’ AMOC, dégel du Pergélisol, basculement de l’ Amazonie en savane sèche…, réduisant fortement sa capacité à recycler l’eau, à stocker du carbone, etc. Des effets en cascade climatiques pourraient en résulter : la fonte accélérée des glaces peut augmenter l’eau douce dans l’Atlantique, affaiblissant l’AMOC. La fonte du pergélisol libère du carbone, ce qui accélère le réchauffement et affecte les forêts tropicales. Etc. 

On a vu aussi que l’atteinte de ces points de bascule accroissait la probabilité d’occurrences d’événements extrêmes (pluie, inondations, canicules, tempêtes etc.). 

Il pourrait en résulter également des effets en cascade socio-économiques. La mondialisation a accru l’efficacité et la spécialisation des activités agricoles alimentaires et industrielles. Mais cette spécialisation augmente aussi la vulnérabilité aux chocs simultanés. Peuvent se produire des ruptures géopolitiques, , des conflits majeurs liés aux ressources, des perturbations prolongées des chaînes d’approvisionnement, des effondrements d’États fragiles, une montée des régimes autoritaires… 

5.2.3 Vers une trajectoire « sûre » : vivre à l’intérieur des limites planétaires

La Terre ne deviendra pas une fournaise comparable à Vénus (voir encadré ci-dessus). Elle restera, selon toute probabilité, dans les limites physiques permettant l’existence d’eau liquide et d’une biosphère active. Les questions décisives sont tout autres. Les zones habitables resteront-elles suffisamment étendues ? Les systèmes agricoles pourront-ils nourrir durablement une population mondiale élevée ? Les institutions humaines pourront-elles absorber des perturbations répétées ? Les inégalités d’exposition et de vulnérabilité resteront-elles politiquement soutenables ?

Autrement dit, l’enjeu n’est pas la survie abstraite de la planète, mais la compatibilité entre un état climatique donné et une civilisation technologique complexe. 

Pour rester dans la « zone sûre » des limites planétaires, il est nécessaire de combiner plusieurs transformations :

  • Décarbonation rapide et transition énergétique globale ;
  • Gestion durable des sols, de l’eau et des nutriments, limitant la perturbation des cycles de l’azote et du phosphore ;
  • Préservation et restauration de la biodiversité, incluant les écosystèmes clés tels que forêts, zones humides et récifs coralliens ;
  • Réduction des polluants chimiques et plastiques, et adaptation aux événements extrêmes.

Même avec ces mesures, des transformations profondes des modes de production, de consommation et de gouvernance sont nécessaires. Les trajectoires actuelles pourraient rendre certaines régions marginales pour la vie humaine et provoquer une série de crises interconnectées sur plusieurs décennies.

Le prochain post abordera comment les trois grands blocs civilisationnels actuels (Les Etats-Unis , la Chine et l’Europe) se situent face à cette bifurcation et concluera par ce qu’est le défi européen aujourd’hui.

Alain Grandjean


Notes

  1. Aujourd’hui environ 25 000 espèces bactériennes sont connues officiellement et décrites, recensées dans des bases taxonomiques comme la List of Prokaryotic names with Standing in Nomenclature (LPSN). Cependant, ce chiffre ne reflète qu’une fraction infime de la diversité réelle, car la plupart des bactéries ne peuvent pas être cultivées en laboratoire et ne sont détectées que par séquençage génétique environnemental. Les études de métagénomique suggèrent que la Terre pourrait abriter des millions, voire des milliards d’espèces microbiennes (bactéries et archées confondues). Une estimation statistique marquante (Locey & Lennon, Scaling laws predict global microbial diversity, PNAS, 2016) avance même un potentiel théorique allant jusqu’à 10¹² espèces microbiennes. Ainsi, malgré plus d’un siècle de microbiologie, l’essentiel de la diversité bactérienne demeure encore inconnu. ↩
  2. Les régulateurs épigénétiques modifient l’expression des gènes sans changer l’ADN et influencent la différenciation cellulaire et la réponse aux conditions environnementales. Certaines marques épigénétiques peuvent se transmettre sur quelques générations, créant des variations héréditaires sur lesquelles la sélection naturelle peut agir. Ainsi, l’épigénétique constitue une source supplémentaire de variation évolutive, pouvant façonner les phénotypes et les trajectoires évolutives. Voir Yi SV, Goodisman MAD. The impact of epigenetic information on genome evolution. Philos Trans R Soc Lond B Biol Sci. 2021 ↩
  3. Les radiations mésozoïques sont des périodes de diversification rapide et massive des groupes vivants pendant le Mésozoïque, façonnant durablement la biodiversité terrestre et marine. ↩
  4. Les animaux ont développé des comportements d’entraide et de coopération, qui remettent en cause l’idée reçue selon laquelle la compétition serait le principe actif de l’évolution (voir par exemple Lynn Margulis. L’univers bactériel. Les nouveaux rapports de l’homme et de la nature. Seuil. 2022.). Mais seule l’espèce humaine est capable de coopération à grande échelle qui nécessite le langage articulé. ↩
  5. Les 9 limites planétaires sont les suivantes : le changement climatique ; la destruction de la biodiversité ;l’utilisation massive d’engrais (l’azote et le phosphore) ; le changement d’usage des sols (la déforestation) ; le cycle de l’eau douce ; le rejet de nouvelles substances dans la nature ;l’acidification des océans ; l’appauvrissement de la couche d’ozone ; l’augmentation du nombre de particules dans l’atmosphère. ↩
  6. Qui s’est construite progressivement, comme on l’a vu dans le post précédent, avant le Cambrien, en parallèle de l’oxygénation de l’atmosphère. Elle est indispensable aux organismes vivants qu’elle protège des rayons ultra-violets. ↩
  7. Van Vuuren, D.P., Doelman, J.C., Schmidt Tagomori, I. et al. Exploring pathways for world development within planetary boundaries. Nature 641, 910–916 (2025). ↩
  8. Lamyae Rhomrasia et al.Exploring the interplay between Planetary Boundaries and Sustainable Development Goals using Large Language Models 2025. ↩
  9. Il s’agit de la hausse de la température moyenne planétaire depuis la deuxième partie du XIX°s. A ce stade, cette hausse est d’environ 1,5°C. L’accord de Paris à la COP21 en 2015 est un engagement des parties à contenir  cette hausse nettement en dessous de 2 °C par rapport aux niveaux préindustriels et en poursuivant l’action menée pour limiter l’élévation de la température à 1,5 °C par rapport aux niveaux préindustriels. Seule la première famille de trajectoires est alignée avec l’accord de Paris. Mais, malheureusement en effet, rien n’indique qu’il sera respecté. ↩

The post Homo sapiens face à Gaia 2/3 : de l’évolution du vivant à la bifurcation civilisationnelle. appeared first on Chroniques de l'Anthropocène.

PDF

25.02.2026 à 09:32

Homo sapiens face à Gaïa 1/3 : dynamiques planétaires et crises du vivant.

Alain Grandjean

L’humanité fait face à une bifurcation sans précédent dans son histoire et celle de la Terre. Espèce née de processus extrêmement complexes et globalement autorégulés, elle devient une force géologique qui peut rendre la planète inhabitable par l'homme ou au contraire devenir une force régulatrice. C’est le véritable enjeu civilisationnel…

The post Homo sapiens face à Gaïa 1/3 : dynamiques planétaires et crises du vivant. appeared first on Chroniques de l'Anthropocène.

Texte intégral (11214 mots)

L’humanité fait face à une bifurcation sans précédent dans son histoire et celle de la Terre. Espèce née de processus extrêmement complexes et globalement autorégulés, elle devient une force géologique qui peut rendre la planète inhabitable par l’homme ou au contraire devenir une force régulatrice. C’est le véritable enjeu civilisationnel d’aujourd’hui. En simplifiant, Donald Trump et ses troupes veulent faire fi des limites planétaires, la Chine incarne un modèle qui limite la liberté individuelle. L’Europe, quant à elle, pourrait incarner un modèle combinant libertés individuelles maximales et respect des limites planétaires. C’est ce que nous allons regarder d’un peu plus près dans la suite.

Remerciements : j’ai été inspiré pour l’écriture de ce post par les publications remarquables de Philippe Bertrand que je remercie chaleureusement, son dernier livre « La planète Terre et ses extraordinaires propriétés. Emergence, adaptation , autorégulation » et Les attracteurs de Gaïa. Je remercie également Paul-Henri Roméo pour sa relecture. Leur responsabilité n’est bien sûr en rien engagée dans ce qui suit.

Introduction

La Terre n’est pas un simple décor cosmique sur lequel la vie serait apparue avant d’y évoluer passivement. Depuis plus de quatre milliards d’années, elle est le théâtre d’interactions complexes entre matière inerte et matière vivante, entre lithosphère, hydrosphère, atmosphère et biosphère. Les conditions qui rendent possible l’eau liquide, la stabilité climatique et l’émergence d’organismes complexes ne relèvent ni d’un miracle permanent ni d’un équilibre figé : elles sont le produit d’une dynamique historique, faite de régulations, de rétroactions., d’émergences, de crises et de réorganisations.

C’est cette dynamique que l’hypothèse Gaïa, formulée par James Lovelock, a cherché à représenter : la vie n’est pas seulement adaptée à la Terre, elle participe à la configuration de ses conditions d’habitabilité1. Les grands cycles biogéochimiques, la régulation du carbone atmosphérique, l’interaction entre végétation et climat illustrent cette coévolution du vivant et du non-vivant. Gaïa n’est pas une entité mystique ; elle désigne un système couplé2, capable d’auto-organisation.

Or, depuis deux siècles, une espèce particulière — Homo sapiens — modifie à une vitesse inédite les paramètres physiques et chimiques du système Terre. En mobilisant massivement des combustibles fossiles issus d’anciens épisodes biologiques, en transformant les sols, en perturbant les cycles de l’azote et du phosphore, l’humanité agit désormais à l’échelle planétaire. L’Anthropocène signifie que l’homme est devenu une force géologique majeure.

La question n’est donc plus seulement environnementale. Elle est systémique et historique : l’humanité est-elle en train de rompre les mécanismes d’autorégulation qui ont maintenu la Terre dans une fenêtre d’habitabilité stable depuis des millions d’années ? Peut-elle transformer cette planète, sinon en une réplique de Vénus, du moins en un monde largement hostile à toute civilisation complexe, telle que la nôtre ? Ou bien peut-elle devenir, paradoxalement, un nouvel agent de régulation conscient, capable d’infléchir la trajectoire qu’elle a elle-même engagée ?

Pour répondre à ces questions, nous allons dans une première partie évoquer quelques grandes dynamiques terrestres dont résulte la coévolution du vivant et du non-vivant et qui en sont issues. Nous verrons aussi qu’elles n’ont pas empêché les destructions massives de la biodiversité, face auxquelles la planète s’est cependant montrée résiliente.

Dans une deuxième partie nous rappellerons les grandes étapes de l’histoire de la vie pour mettre en évidence le paradoxe face auquel nous avons à faire face. Le « petit dernier » — d’une des branches de l’évolution — pourrait détruire le berceau dans lequel il est né. Nous évoquerons les futurs possibles, les inflexions en cours et les choix radicaux qui s’offrent à nous. Gaïa ne disparaîtra pas. La Terre survivra sous une forme ou sous une autre. Mais rien ne garantit que les conditions qui ont permis l’émergence et l’expansion d’Homo sapiens persisteront indéfiniment. La question n’est donc pas celle de la survie de la planète, mais celle de notre place dans son devenir.

Nous prendrons du recul, dans une troisième partie, sur les trois « modèles civilisationnels », qui s’affrontent aujourd’hui, l’américain, le chinois et l’européen, pour caractériser le défi européen. 

Première partie

1. Dynamiques planétaires et coévolution du vivant et du non-vivant

Rappelons tout d’abord que dès sa naissance, des bonnes fées se sont penché sur la Terre qui a bénéficié d’une conjonction exceptionnelle3 de facteurs astrophysiques, géophysiques et géochimiques qui ont favorisé l’apparition et la pérennité de la vie. Sur le plan astronomique, la planète se situe à environ 26 000 années-lumière du centre de la Voie lactée, dans un bras spiral peu densément peuplé d’étoiles massives, ce qui limite l’exposition aux radiations cosmiques et aux supernovas4. Au sein du système solaire, la Terre occupe la zone habitable5, à une distance stable du Soleil permettant à l’eau de rester liquide sur des milliards d’années. La présence de Jupiter agit comme un bouclier gravitationnel, réduisant le risque d’impacts catastrophiques, tandis que la Lune stabilise l’obliquité terrestre6, limitant les variations climatiques extrêmes et assurant des saisons régulières.

Sur le plan géomécanique, la taille et la masse de la Terre sont cruciales : elles permettent de maintenir une atmosphère et un champ magnétique protecteur7, essentiels pour filtrer les rayons cosmiques et le vent solaire. La chaleur interne, provenant en grande partie de la désintégration radioactive de l’uranium, du thorium et du potassium, alimente la tectonique des plaques, moteur du recyclage géochimique des éléments vitaux, dont le carbone, et régulateur du climat8 à long terme. La mobilité de la croûte terrestre a permis la formation des continents, des océans et des reliefs, favorisant la diversité écologique.

D’un point de vue géochimique, la croûte terrestre est riche en éléments essentiels à la vie, tels que le carbone, le phosphore, le fer, le calcium et les silicates. L’eau liquide, omniprésente à la surface, et l’atmosphère, modulée par l’activité volcanique et biologique, créent un environnement stable pour la chimie de la vie. La combinaison de ces facteurs — position galactique et solaire favorable, rôle stabilisateur de la Lune et de Jupiter, tectonique active, composition chimique propice et eau liquide permanente — fait de la Terre une planète exceptionnellement adaptée pour l’émergence et l’évolution de la vie sur plus de quatre milliards d’années.

1.1 La Terre est un système couplé

Mais la Terre n’est pas une simple planète soumise aux lois de la physique, ni un simple berceau passif de la vie. C’est un système dynamique dans lequel interagissent quatre grands compartiments : la lithosphère, l’hydrosphère, l’atmosphère et la biosphère, la biosphère correspondant à l’ensemble des êtres vivants ainsi qu’aux milieux dans lesquels ils vivent.. Ces compartiments échangent en permanence matière et énergie. Les flux qui les relient forment des cycles — carbone, azote, phosphore, eau — dont l’intensité et la direction évoluent dans le temps.

Depuis la seconde moitié du XXᵉ siècle, les sciences du système Terre ont montré que ces interactions produisent des mécanismes de rétroaction. Une rétroaction négative tend à diminuer une perturbation initiale ; une rétroaction positive l’amplifie. L’équilibre du système terrestre n’est donc pas statique : il résulte d’un ensemble de boucles dynamiques qui se compensent partiellement. Nous ne présenterons pas ici l’ensemble de ces boucles ce qui nécessiterait de très longs développements mais n’en donnerons que quelques exemples suffisants pour « sentir » ce dont il est question.

1.1.1 Le cycle carbonate-silicate

Rappelons tout d’abord l’existence d’un « thermostat géologique de fond ». À l’échelle des temps géologiques, la stabilité thermique relative de la Terre repose sur un mécanisme fondamental : le cycle carbonate-silicate (appelé aussi également appelé cycle du carbone inorganique) qui régule lentement la concentration de CO₂ atmosphérique et, par conséquent, l’effet de serre. Depuis environ 4 milliards d’années, après la phase initiale où la planète était encore bouillante, la température moyenne globale a fluctué dans une plage relativement étroite par rapport aux conditions extrêmes de sa formation. Les premières centaines de millions d’années (Archéen9 tardif) voient des températures élevées, estimées entre 30 et 40 °C, compatibles avec l’existence d’océans liquides mais avec une atmosphère pauvre en oxygène et riche en méthane et CO₂. Après la Grande Oxydation (≈ 2,4 Milliards d’années, Ga), la diminution du méthane atmosphérique et l’augmentation progressive de l’oxygène entraînent des épisodes glaciaires ponctuels, tout en maintenant une température moyenne10 autour de 20–25 °C. Au Protérozoïque11 moyen et tardif, et jusqu’au début du Paléozoïque, la Terre connaît une température moyenne d’environ 20–22 °C, avec quelques oscillations liées aux glaciations et aux variations du CO₂. Le Carbonifère et le Dévonien, marqués par l’expansion des forêts et la séquestration massive de carbone, voient un refroidissement progressif vers des températures de 15–22 °C. Pendant le Mésozoïque, le climat global se réchauffe à nouveau, avec des températures moyennes approchant 25 °C, avant que le Cénozoïque ne connaisse un refroidissement12 lent jusqu’aux valeurs actuelles, autour de 15 °C.

Ces fluctuations montrent que, malgré des variations climatiques significatives, la Terre a conservé des températures compatibles avec la présence continue d’eau liquide. Ce thermostat géologique a fourni le cadre stable dans lequel la vie13 a pu apparaître, se diversifier, évoluer, comme on le verra dans la deuxième partie, et interagir en permanence avec le système planétaire. C’est dans ce contexte que se révèlent les premières grandes innovations métaboliques et écologiques : de la production de méthane par les archées méthanogènes à la photosynthèse oxygénique des cyanobactéries, puis à l’apparition des organismes calcifiants et à la colonisation des continents par les plantes. Ces étapes illustrent comment le vivant, en modifiant la chimie de l’atmosphère, des océans et des continents, est devenu un acteur essentiel de la régulation planétaire.

L’architecture de ce cycle carbonate-silicate est simple dans son principe, et très complexe dans ses détails. Présentons-le de manière très simplifiée en quelques mots.

Le CO₂ atmosphérique se dissout dans l’eau de pluie pour former de l’acide carbonique. Cette eau légèrement acide altère les roches silicatées des continents. Les produits de cette altération — notamment les ions calcium et bicarbonate — sont transportés par les rivières vers les océans, où ils précipitent sous forme de carbonates (CaCO₃). Ces sédiments carbonatés s’accumulent au fond des océans, sont progressivement enfouis, puis recyclés par la subduction marine14. Le métamorphisme15 et le volcanisme réinjectent enfin du CO₂ dans l’atmosphère.

Ce cycle agit comme un thermostat planétaire. Si la température augmente, les précipitations et l’altération chimique s’intensifient : davantage de CO₂ est retiré de l’atmosphère, ce qui tend à réduire l’effet de serre et à refroidir le climat. Si la température diminue, l’altération ralentit : le CO₂ volcanique s’accumule progressivement, renforçant l’effet de serre et réchauffant la planète. Il s’agit d’une rétroaction négative lente mais robuste.

Ce mécanisme explique en partie comment la température de la Terre est restée relativement tempérée malgré l’augmentation progressive de la luminosité solaire depuis plus de quatre milliards d’années. Sans ce recyclage géochimique du carbone, la planète aurait probablement divergé vers des états climatiques extrêmes.

1.1.2 L’hypothèse Gaïa16

James Lovelock dans les années 1970 a proposé de considérer la biosphère comme un acteur de cette régulation. Il ne s’agissait pas d’attribuer une intention à la Terre, mais de reconnaître que les organismes vivants modifient activement les paramètres physico-chimiques globaux. Cette perspective a contribué à déplacer le regard : la vie ne s’adapte pas simplement à son environnement, elle le transforme.

Ainsi, la température moyenne terrestre, la composition de l’atmosphère, la salinité ou le pH des océans17 sont le produit d’interactions cumulées sur des millions d’années entre le vivant et le non-vivant. 

Sans faire ici l’histoire de la planète, nous allons donner dans la suite de cet article quelques exemples illustrant ce propos.

1.2 Le paradoxe du « Soleil jeune » et les premières régulations biologiques

Au début de l’histoire terrestre, il y a plus de 4 milliards d’années, le Soleil émettait environ 25 à 30 % d’énergie en moins qu’aujourd’hui. Il a été montré qu’une telle luminosité aurait dû maintenir la Terre dans un état glacé. Pourtant, les données géologiques indiquent la présence d’eau liquide dès l’Archéen. Ce décalage est connu sous le nom de « paradoxe du Soleil jeune ». Il suggère que des mécanismes compensateurs ont opéré très tôt.

Et, en effet, des micro-organismes méthanogènes, apparus il y a plus de 3,5 milliards d’années, ont produit du méthane (CH₄), puissant gaz à effet de serre. À l’époque où ils apparaissent, la concentration d’oxygène atmosphérique était extrêmement faible (moins de 0,001 % de l’atmosphère). Dans un tel environnement anoxique, le méthane n’était pas rapidement détruit par oxydation et pouvait donc s’accumuler dans l’atmosphère, renforçant l’effet de serre et contribuant au maintien de températures compatibles avec l’existence d’eau liquide. D’autres mécanismes ont également contribué à compenser la faible luminosité solaire. Le dégazage volcanique intense libérait d’importantes quantités de CO₂. D’autres gaz, comme l’ammoniac (NH₃), ont pu jouer un rôle transitoire malgré leur instabilité photochimique. Une atmosphère probablement plus dense, une surface continentale plus réduite limitant l’altération du CO₂, ainsi que des propriétés atmosphériques et nuageuses différentes, ont également contribué à renforcer l’effet de serre. Ces processus, combinés à la production biologique de méthane, ont permis le maintien de températures compatibles avec la présence d’eau liquide malgré un Soleil plus faible.

Nous observons ici une première coévolution : une étoile moins lumineuse, une atmosphère anoxique, une faible destruction du méthane, une production biologique continue et un climat stabilisé par leurs interactions. Dès ses origines, la vie ne s’est pas limitée au rôle de simple occupant fragile ; elle a d’entrée de jeu participé à la configuration thermique planétaire.

1.3 La Grande Oxydation : transformation irréversible du système Terre

Vers 2,4 milliards d’années avant notre ère, le système Terre connaît l’une des transformations les plus profondes de son histoire : l’augmentation durable de l’oxygène atmosphérique18, événement désigné sous le nom de « Grande Oxydation ». 

L’innovation métabolique décisive est la photosynthèse oxygénique19. Des cyanobactéries — micro-organismes procaryotes capables d’utiliser l’énergie solaire — développent un mécanisme biochimique permettant de scinder la molécule d’eau (H₂O). Les électrons extraits servent à fixer le dioxyde de carbone (CO₂) pour produire de la matière organique, tandis que l’oxygène moléculaire (O₂) est libéré comme sous-produit. On peut l’écrire de manière très simplifiée :

Formule "6 CO2​ + 6 H2​O+ énergie solaire → C6​H12​O6 ​+ 6 O2"

où la molécule organique est un glucose.

Ce processus représente une innovation radicale. Il ouvre la voie à une productivité biologique bien supérieure aux formes de photosynthèse anoxygénique antérieures. En outre, les cyanobactéries utilisent une eau quasi inépuisable et produisent de l’oxygène très toxique pour les méthanogènes, d’où leur avantage sélectif.

L’oxygène produit par ces cyanobactéries est très toxique pour les méthanogènes d’où leur avantage sélectif.

Cependant, l’oxygène ainsi produit ne s’accumule pas immédiatement dans l’atmosphère. Pendant plusieurs centaines de millions d’années, il est consommé par l’oxydation des réservoirs réduits présents à la surface de la Terre. Dans les océans archéens, le fer dissous sous forme ferreuse (Fe²⁺) est abondant. L’oxygène libéré par les cyanobactéries oxyde ce fer en forme ferrique (Fe³⁺), qui précipite sous forme d’oxydes insolubles. Ces dépôts successifs forment les « formations de fer rubané », visibles aujourd’hui dans de nombreuses régions du monde. Ils constituent l’un des principaux témoins géologiques de cette transition. Parallèlement, l’oxygène réagit avec d’autres éléments réduits : soufre, gaz volcaniques, composés organiques. Tant que ces puits chimiques ne sont pas saturés, l’atmosphère demeure pratiquement dépourvue d’oxygène libre.

La Grande Oxydation correspond précisément au moment où ces réservoirs d’oxydation atteignent un seuil critique. Une fois les principaux puits géochimiques saturés, l’oxygène commence à s’accumuler dans l’atmosphère de manière durable. Sa concentration, initialement très faible (probablement moins de 0,001 %, comme on l’a vu), augmente progressivement pour atteindre quelques pourcents au cours du Protérozoïque.

Cette transformation modifie profondément le système Terre. Sur le plan chimique, l’oxygène atmosphérique permet la formation d’une couche d’ozone (O₃) stratosphérique20. Celle-ci absorbe une partie des rayonnements ultraviolets solaires, réduisant leur intensité à la surface et ouvrant la possibilité d’une colonisation progressive des environnements superficiels puis continentaux. Cette couche se formera progressivement .

Sur le plan biologique, l’oxygène constitue un oxydant extrêmement puissant. La respiration aérobie, qui utilise l’O₂ pour extraire l’énergie des molécules organiques, a un rendement énergétique bien supérieur aux métabolismes anaérobies. Plus précisément, l’augmentation de l’oxygène atmosphérique a profondément transformé le potentiel énergétique du vivant. La respiration aérobie, qui utilise l’O₂ comme accepteur final d’électrons, permet de produire environ quinze fois plus d’ATP21 par molécule de glucose que les métabolismes anaérobies. Cette efficacité énergétique accrue a levé une contrainte fondamentale pesant sur la taille et l’organisation des cellules : dans un environnement pauvre en oxygène, sa diffusion insuffisante ou trop lente limite l’épaisseur des tissus et restreint la complexité structurale22

Mais cette Grande Oxydation n’a pas été sans coût. Pour de nombreux micro-organismes anaérobies, en effet, l’oxygène est toxique. La Grande Oxydation provoqua probablement une crise biologique majeure ; elle est parfois qualifiée de « catastrophe de l’oxygène ». Une part significative de la biosphère archéenne disparaît ou se réfugie dans des environnements anoxiques. Sur le plan climatique, les conséquences sont également notables. Avant l’oxydation, l’atmosphère contenait probablement des quantités significatives de méthane (CH₄), puissant gaz à effet de serre produit par des archées méthanogènes. L’augmentation de l’oxygène entraîne l’oxydation du méthane en CO₂, beaucoup moins efficace pour retenir la chaleur. Cette diminution du forçage radiatif pourrait avoir contribué aux grandes glaciations du Paléoprotérozoïque, parfois appelées épisodes « Terre boule de neige ».

Ainsi, la Grande Oxydation illustre elle aussi de manière exemplaire la coévolution du vivant et du non-vivant. Une innovation métabolique modifie la chimie océanique, cette modification altère la composition atmosphérique, ce qui influence le climat, qui lui-même rétroagit sur la biosphère. La biosphère devient une force géochimique majeure. 

1.4 Les organismes calcificateurs : la biologisation du cycle du carbone

À partir du Cambrien et surtout de l’Ordovicien (il y a environ 500 à 450 millions d’années), de nombreux animaux marins commencent à produire des substances dures : coquilles, squelettes ou tests calcaires. Des groupes comme les trilobites, les brachiopodes, les premiers coraux, puis plus tard certains micro‑organismes marins recouverts de calcaire, utilisent le calcium et les carbonates présents dans l’eau de mer pour fabriquer du carbonate de calcium (CaCO₃). Cette capacité à créer des structures minérales a profondément modifié le cycle du carbone.

La précipitation abiotique des carbonates existait déjà, mais l’intervention d’organismes vivants accélère et structure massivement ce processus. La biosphère devient ainsi un acteur majeur de la sédimentation carbonatée, en produisant coquilles, tests et squelettes calcaires qui s’accumulent au fond des océans. Ce phénomène intensifie le transfert du carbone de l’atmosphère vers la lithosphère et réorganise les équilibres chimiques marins. En s’intégrant au cycle carbonate-silicate, il participe au système tampon qui stabilise l’alcalinité et le pH des océans sur les temps géologiques, contribuant ainsi à la régulation climatique de long terme

La « pompe biologique » du carbone s’organise à l’échelle planétaire. Les organismes vivants participent à la construction géologique de la planète. Cette étape marque une nouvelle phase dans la coévolution Terre-vivant : le cycle carbonate-silicate, initialement géologique, devient partiellement biologique. Le vivant accélère une régulation préexistante et en transforme la dynamique.

Il est remarquable que les récifs coralliens, apparus très tôt dans l’histoire animale, jouent encore aujourd’hui un rôle majeur dans la sédimentation carbonatée — tout en étant désormais fragilisés par l’acidification contemporaine des océans.

1.5 La colonisation des continents : transformation géochimique des surfaces émergées

Une autre étape décisive survient au Dévonien, il y a environ 400 millions d’années : la colonisation des continents par les plantes vasculaires23. Avant cette émergence, les surfaces continentales sont essentiellement minérales, soumises à l’érosion physique et chimique. L’altération des roches existe déjà, mais elle reste limitée par l’absence de sols structurés et d’activité biologique profonde.

L’apparition des systèmes racinaires change radicalement la donne. Les racines pénètrent les fractures rocheuses, exercent une pression mécanique et sécrètent des acides organiques qui accélèrent la dissolution des silicates24. Les champignons mycorhiziens associés aux plantes amplifient encore ce processus25. Des sols se forment, riches en matière organique, capables de retenir l’eau et de concentrer les réactions chimiques. En renforçant la désagrégation mécanique et la dissolution chimique des roches, la biosphère terrestre accroît significativement le taux d’altération des continents. Or, comme dans le cycle carbonate-silicate, l’altération des silicates consomme du CO₂ atmosphérique. L’expansion des forêts dévoniennes contribue ainsi à une diminution progressive du CO₂ et à un refroidissement global26. Certains travaux27 suggèrent que cette intensification de l’altération biologique a pu jouer un rôle dans les épisodes glaciaires du Paléozoïque tardif.

La biosphère transforme donc non seulement l’atmosphère et les océans, mais aussi la géochimie des continents eux-mêmes. Les surfaces émergées deviennent des interfaces actives entre le climat, la lithosphère et le vivant. La Terre entre alors dans une phase où les continents végétalisés participent directement à la régulation climatique.

1.6 Le Carbonifère : la biosphère modifie le climat

Voici maintenant un dernier exemple d’interactions massives entre le vivant et la planète, il y a environ 300 millions d’années, au Carbonifère. Les continents étaient alors surtout proches de l’équateur et très humides, avec de vastes marais peuplés de lycophytes géantes, de prêles et de fougères. La végétation poussait rapidement grâce à l’air chaud et riche en CO₂. Une innovation biochimique joua alors un rôle majeur : le développement massif de la lignine dans les tissus vasculaires des plantes. La lignine est un polymère complexe qui rigidifie les parois cellulaires et permet l’élévation verticale des végétaux. Mais elle est très difficile à décomposer, et les champignons capables de la digérer efficacement n’étaient pas encore très répandus au début du Carbonifère.

Il en résulta un déséquilibre temporaire dans le cycle du carbone. La production de biomasse dépassa la capacité de décomposition. Dans les environnements anoxiques des marécages, les débris végétaux s’accumulèrent, furent enfouis sous des sédiments, puis transformés progressivement, sous l’effet de la pression et de la température, en tourbe puis en charbon. Les plantes vasculaires lignifiées ont donc grandement contribué à la formation du charbon.

Ce processus séquestra massivement du carbone organique sur des échelles de temps géologiques. Or, la photosynthèse libère de l’oxygène lorsqu’elle fixe du carbone. Si le carbone reste piégé sous forme fossile au lieu d’être réoxydé par décomposition, l’oxygène atmosphérique s’accumule. C’est ainsi que la concentration d’O₂ atteignit des valeurs exceptionnellement élevées, probablement proches de 30 % ou davantage, bien au-dessus des 21 % actuels. Cette atmosphère enrichie favorisa la taille importante de certains arthropodes et modifia les régimes d’incendies.

Parallèlement, la séquestration prolongée du carbone entraîna une diminution progressive du CO₂ atmosphérique. Cette baisse contribua à un refroidissement global. Vers la fin du Carbonifère et au Permien inférieur, des calottes glaciaires s’installèrent sur le Gondwana. Le système Terre entra dans une phase plus froide, illustrant une rétroaction négative à grande échelle : une expansion biologique intense finit par réduire l’effet de serre qui l’avait favorisée.

Ce moment du Carbonifère illustre avec une clarté particulière la coévolution du vivant et du climat. Une innovation métabolique et structurale — l’essor des plantes vasculaires lignifiées — modifie profondément la composition atmosphérique, influence la température globale et laisse une empreinte géologique durable sous forme de gisements charbonniers.

Il est significatif que l’industrialisation moderne mobilise aujourd’hui ces réserves fossiles. En brûlant le charbon accumulé au Carbonifère, l’humanité réinjecte en quelques siècles dans l’atmosphère un carbone qui avait été séquestré pendant des centaines de millions d’années. Le cycle long est court-circuité, la régulation lente contournée.

Ainsi, le Carbonifère n’est pas seulement un épisode ancien de l’histoire terrestre : il constitue un point nodal où se croisent biologie, climat et économie moderne. Il montre que la biosphère peut transformer profondément l’atmosphère — mais aussi que ces transformations s’inscrivent normalement dans des temporalités incomparablement plus lentes que celles de l’Anthropocène.

1.7 Le rôle des insectes et des mammifères

Nous n’avons évoqué jusque-là que quelques interactions pour donner à voir par des exemples ce que signifie la coévolution du vivant et du non-vivant. Sans entrer dans les détails , citons rapidement le rôle des insectes apparus il y a 410 millions. Ils ont influencé la productivité végétale, la décomposition de la matière organique, la formation des sols et les cycles biogéochimiques du carbone et du méthane. Par leur rôle dans la pollinisation (devenant déterminante avec l’apparition des plantes à fleur, au Crétacé , le recyclage de la biomasse et l’ingénierie des sols, ils ont contribué à structurer la biosphère terrestre et à moduler indirectement la composition de l’atmosphère et le climat à l’échelle planétaire. Quant aux mammifères, apparus il y a 220 millions d’années, ils ont modifié la structure et la productivité des écosystèmes, influençant ainsi le cycle du carbone. Les grands herbivores maintiennent des prairies riches en carbone, les éléphants favorisent des arbres à forte capacité de stockage, et les baleines stimulent la production de phytoplancton par recyclage des nutriments. Un exemple particulièrement spectaculaire est celui des loutres de mer, qui contrôlent les oursins : en leur absence, les oursins détruisent les forêts de kelp, importantes pompes biologiques de CO₂ ; en présence de loutres, ces forêts se développent et renforcent la séquestration du carbone. Ces interactions trophiques illustrent le rôle des mammifères comme régulateurs indirects du climat à l’échelle planétaire.

Conclusion du chapitre 1

L’habitabilité terrestre ne résulte ni d’un équilibre figé ni d’un miracle permanent. Elle est le produit d’interactions cumulées entre processus physiques et processus biologiques, agissant sur des échelles de temps différentes. Cette stabilité relative a cependant des bornes. Elle dépend de vitesses de régulation compatibles avec les vitesses de perturbation.
C’est précisément cette relation entre vitesse et résilience que l’époque contemporaine met à l’épreuve.

2. Crises et résilience de la planète

Le chapitre précédent a donné à voir des mécanismes de régulation plutôt lents et continus. Mais la planète a également connu des épisodes de perturbations rapides (à l’échelle des temps géologiques) et massives, parfois associés à des extinctions majeures, suivis d’une régénération de la biosphère. Ces crises montrent à la fois la vulnérabilité du vivant face à des chocs rapides mais aussi sa résilience.

2.1 Extinctions planétaires emblématiques

Parmi les crises les plus spectaculaires de l’histoire de la Terre, la fin du Permien, il y a environ 251 millions d’années, occupe une place particulière. Cette période correspond à une perturbation globale majeure, probablement déclenchée par un volcanisme massif dans les trapps sibériens, qui a libéré dans l’atmosphère d’énormes quantités de CO₂ et de méthane. Les conséquences ont été immédiates et dramatiques : la température globale aurait augmenté de 5 à 10 °C en quelques milliers d’années, provoquant un stress thermique intense pour de nombreux écosystèmes. L’acidification des océans a perturbé les chaînes alimentaires marines, tandis que les changements rapides de la chimie atmosphérique et océanique ont conduit à l’extinction de près de 95 % des espèces marines et à la disparition d’environ 70 % des espèces terrestres. Cette catastrophe marque la plus sévère des cinq grandes extinctions massives identifiées dans l’histoire de la Terre, aux côtés de la fin du Crétacé (≈ 66 Ma), du Trias-Jurassique (≈ 201 Ma), de l’Ordovicien-Silurien (≈ 444 Ma) et du Dévonien tardif (≈ 360–375 Ma).

Ces crises ont des causes variées : certaines résultent d’impacts extraterrestres, comme la chute d’un météorite au Crétacé qui a frappé la péninsule du Yucatán et contribué à la disparition des dinosaures non aviens, combiné à un volcanisme intense dans les trapps du Deccan ; d’autres sont liées à des perturbations internes de la Terre, comme les épisodes glaciaires extrêmes du Néoprotérozoïque, les hypothétiques « Terres boule de neige », ou les fortes anoxies océaniques du Mésozoïque. Dans tous les cas, elles partagent des traits communs : des modifications rapides de la température, des cycles chimiques, de l’oxygénation et de la composition atmosphérique, ainsi que des changements dans les niveaux marins et les habitats disponibles.

Ces événements illustrent clairement que la Terre, même dotée d’un thermostat géologique de fond, n’est pas exempte de perturbations rapides. Le cycle carbonate-silicate et les rétroactions biologiques agissent sur des échelles de millions d’années, mais certaines crises se produisent à une vitesse suffisante pour dépasser ces régulations, entraînant des modifications écologiques majeures. L’étude de ces crises montre également que les impacts ne se limitent pas aux espèces individuelles : ils affectent la structure globale des écosystèmes, la composition chimique des océans et de l’atmosphère, et la dynamique planétaire sur plusieurs millions d’années.

En résumé, la Terre a connu au moins cinq extinctions massives majeures, chacune avec ses mécanismes et intensités propres, mais toutes illustrant la même dualité : la planète est à la fois vulnérable aux chocs rapides et capable de retrouver un nouvel équilibre stable. Nous allons donner maintenant quelques explications relatives à cette résilience planétaire.

2.2 La résilience planétaire et ses mécanismes

Malgré ces crises, la Terre a toujours su retrouver un nouvel état stable, capable de soutenir la vie. C’est ce que l’on appelle la résilience. Mais la résilience ne garantit pas la conservation des espèces individuelles ni le maintien des écosystèmes existants. Elle signifie que le système Terre conserve sa capacité fondamentale à réguler le climat, les cycles chimiques et l’activité biologique, permettant une biosphère active. Autrement dit, Gaïa ne protège pas les formes particulières de vie, mais elle maintient des conditions physico-chimiques globalement compatibles avec la vie.

La capacité de la Terre à retrouver un nouvel état stable après des crises massives repose sur plusieurs mécanismes interconnectés, à la fois géologiques, biologiques et écologiques. Ces mécanismes expliquent pourquoi, malgré des perturbations rapides ou des extinctions massives, la planète n’a jamais été entièrement stérile et a toujours pu soutenir une biosphère active. Il s’agit essentiellement :

  • des boucles géochimiques lentes

Au premier rang, le cycle carbonate-silicate agit comme un thermostat planétaire de longue période, comme on l’a vu plus haut.

  • des rétroactions biologiques

Le vivant est un acteur majeur de la résilience planétaire. On a vu plus haut plusieurs exemples historiques montrant comment les organismes peuvent accélérer ou moduler la régulation climatique : la photosynthèse oxygénique des cyanobactéries, les organismes calcificateurs marins, la colonisation des continents par les plantes vasculaires… 

  • de la diversité écologique et redondance fonctionnelle

La résilience repose aussi sur la diversité des espèces et des écosystèmes. Même lorsque certaines espèces disparaissent lors des extinctions massives, d’autres peuvent remplir les mêmes fonctions vitales (production primaire, recyclage des nutriments, régulation des cycles chimiques). Cette redondance garantit que les processus essentiels de la biosphère se poursuivent, assurant la continuité de la vie malgré la perte d’espèces ou la transformation des habitats.

  • de l’interaction entre géologie et biosphère

La résilience planétaire est le fruit de l’interaction dynamique entre la géologie et la biosphère. Les cycles lents du carbone et du silicium, combinés aux innovations biologiques majeures, permettent à la Terre de retrouver un nouvel équilibre. Par exemple, après l’extinction massive de la fin du Permien, il a fallu plusieurs millions d’années pour que les écosystèmes marins se reconstituent, mais le système global a conservé ses fonctions essentielles : recyclage du carbone, production d’oxygène et maintien d’océans « habitables ».

Ces mécanismes démontrent que la résilience ne garantit pas le retour à l’état antérieur, mais elle assure que la planète conserve ses conditions fondamentales de vie. C’est cette capacité qui distingue la Terre d’une planète comme Vénus, où les rétroactions positives du climat ont conduit à un état extrême et inhospitalier.

Le prochain post fera un rappel des grandes étapes de l’évolution du vivant et du rôle géologique devenu majeur de l’espèce humaine, qui se trouve confronté à une bifurcation civilisationnelle liée au franchissement en cours des limites planétaires.

Alain Grandjean


Notes

  1.  La notion d’habitabilité ne signifie pas que la Terre ait acquis des conditions optimales pour toutes les formes de vie, en particulier les organismes complexes comme l’être humain, mais plutôt qu’elle offre une diversité de conditions compatibles avec le vivant. De nombreux organismes, sont capables de survivre dans des conditions extrêmes (températures élevées, radiations intenses, dessiccation). L’habitabilité terrestre résulte ainsi d’une coévolution entre le vivant et son environnement, combinant transformation progressive des conditions planétaires et adaptation du vivant à une grande diversité de niches, y compris extrêmes. ↩
  2. James Lovelock a mis au point un modèle mathématique Daisy World visant à montrer les interactions entre des plantes, l’albedo et le climat. Depuis, les modèles climatiques sont devenus très sophistiqués et rendent compte de nombreux « couplages ». La science de l’habitabilité des exoplanètes s’est aussi développée depuis. Elle vise à déterminer dans quelles conditions physiques et chimiques une planète peut maintenir de l’eau liquide, une atmosphère stable et des sources d’énergie suffisantes sur des durées suffisamment longues pour permettre l’émergence et le maintien de la vie. Elle mobilise des modèles climatiques, géophysiques et astrophysiques pour évaluer la stabilité à long terme des environnements planétaires, au-delà du simple concept de « zone habitable ». Pour la vie complexe, les exigences sont plus strictes : stabilité climatique sur des milliards d’années, cycles biogéochimiques efficaces, protection contre le rayonnement stellaire et conditions permettant l’oxygénation et la diversification biologique. ↩
  3. Ward, P., & Brownlee, D. Rare Earth: Why Complex Life is Uncommon in the Universe. Springer. 2000. ↩
  4. Kasting, J. F., Whitmire, D. P., & Reynolds, R. T. (1993). Habitable zones around main sequence stars. Icarus, 101, 108–128 ↩
  5. Springer. Lissauer, J. J., et al. (2014). Planetary formation and the habitable zone. Nature, 506, 183–189. ↩
  6. Laskar, J., et al. (1993). Stabilization of Earth’s obliquity by the Moon. Nature, 361, 615–617. ↩
  7. Le champ magnétique terrestre est produit par la convection du fer et du nickel liquides dans le noyau externe. Le refroidissement progressif de la planète entraîne la cristallisation du noyau interne solide, ce qui libère de la chaleur et des éléments légers. Cette énergie entretient les mouvements convectifs à l’origine de la « dynamo » terrestre, permettant au champ magnétique de persister pendant plusieurs milliards d’années. ↩
  8. Nous reviendrons sur ce cycle du carbone au §1.1 La Terre est un système couplé. ↩
  9. L’échelle des temps géologiques histoire de la Terre est divisée en éons, ères, périodes, époques, âges . L’Archéen est les deuxième éon et s’est déroulé entre de -4 Ga à -2,5 Ga. ↩
  10. La Grande Oxydation a cependant généré des épisodes — temporaires à l’échelle géologique — de glaciation intense, où la température a chuté bien au-dessous de cette moyenne. ↩
  11. Le Protérozoïque est le dernier éon du précambrien, il suit l’Archéen et précède l’éon actuel (le Phanérozoïque) qui débute avec l’ère Paléozoïque dont la première période est le Cambrien. ↩
  12. L’édification de grandes chaînes de montagnes, en particulier l’Himalaya et le plateau tibétain à partir d’environ 50 millions d’années, a exposé à l’altération de vastes surfaces de roches silicatées fraîches. L’altération chimique de ces silicates consomme du CO₂ atmosphérique et conduit à son transfert vers l’océan sous forme de bicarbonates, où il peut être stocké à long terme sous forme de carbonates. Ce mécanisme constitue un puits majeur de CO₂ à l’échelle des temps géologiques et est considéré comme un facteur important du refroidissement climatique cénozoïque. Voir Raymo, M.E., & Ruddiman, W.F.). Tectonic forcing of late Cenozoic climate. Nature, 359, 117–122.1 ↩
  13.  Plus précisément le domaine thermique du vivant va de −20 °C à 122 °C. Le ”thermostat géologique” est plus resserré. ↩
  14. La subduction est l’un des mécanismes majeurs de la tectonique des plaques : elle correspond à l’enfoncement d’une plaque océanique sous une autre plaque, océanique ou continentale, lorsque leurs mouvements convergent. En plongeant dans le manteau, la lithosphère océanique entraîne avec elle les sédiments carbonatés accumulés au fond des océans. Cet enfouissement profond les expose à des pressions et des températures croissantes, amorçant leur transformation métamorphique et participant ainsi au recyclage du carbone à l’échelle géologique, jusqu’à son éventuelle réémission par le volcanisme. ↩
  15. Le métamorphisme, c’est-à-dire la transformation minéralogique et chimique des roches sous l’effet de fortes pressions et températures sans fusion complète, contribue au cycle long du carbone en libérant du CO₂ lorsque des roches carbonatées sont enfouies en profondeur. Ces conditions provoquent des réactions de décarbonation au cours desquelles les carbonates deviennent instables et relâchent du dioxyde de carbone. Ce CO₂ peut ensuite migrer vers la surface, notamment par l’intermédiaire du volcanisme, réinjectant ainsi dans l’atmosphère le carbone auparavant stocké dans la lithosphère. ↩
  16. Plus de détails sur l’hypothèse Gaïa. ↩
  17. La salinité moyenne des océans (35 g/l) est stable depuis des milliards d’années.Le pH moyen des océans est remarquablement stable depuis des centaines de millions d’années (environ 8,1). Les émissions de CO2 , liées à l’activité anthropique, l’acidifie de 0,1 depuis 1950. En 2025, l’acidification des océans est la septième des neuf limites planétaires à être franchie d’après les travaux du Stockholm Resilience Centre. ↩
  18. Pendant les deux premiers milliards d’années de l’histoire terrestre, l’atmosphère est restée quasi dépourvue d’oxygène libre. La Grande oxydation l’a fait passer à environ 1 à 2 % de la valeur actuelle. Une seconde phase d’augmentation significative intervient au Néoprotérozoïque (entre 800 et 500 millions d’années), période associée à l’émergence des premiers organismes pluricellulaires complexes. Au cours du Paléozoïque, notamment au Carbonifère, l’oxygène atteint des niveaux proches — voire supérieurs (voir § 1.6) — à la concentration actuelle (environ 21 %), avant de se stabiliser autour de cette valeur au Mésozoïque et au Cénozoïque. ↩
  19. Il existe deux types principaux de photosynthèse aux impacts planétaires très différents. La photosynthèse anoxygénique, pratiquée par certaines bactéries anciennes, fixe le CO₂ mais n’utilise pas l’eau et ne libère pas d’oxygène, produisant uniquement du soufre ou d’autres composés réduits, avec peu d’effet sur l’atmosphère. La photosynthèse oxygénique, développée plus tard par les cyanobactéries, utilise l’eau comme donneur d’électrons et libère du dioxygène, entraînant l’accumulation d’oxygène dans l’atmosphère et les océans lors de la Grande Oxydation. ↩
  20. La formation d’une couche d’ozone dépend directement de la concentration atmosphérique en oxygène, puisque l’ozone (O₃) est produit par photodissociation du dioxygène (O₂) sous l’effet des UV. Lorsque la concentration d’O₂ est inférieur à 0,001 %, l’ozone est quasiment inexistante ; en revanche, dès que l’O₂ atteint ≈ 1 % du niveau actuel, une couche d’ozone significative peut déjà se former et absorber une grande partie des UV-B. Au-delà de 5 à 10 % du niveau actuel d’O₂, la protection devient proche de l’état moderne, permettant une exposition en surface compatible avec le développement durable d’écosystèmes complexes. Le seuil critique d’oxygène permettant une protection UV robuste et soutenant une vie complexe a très probablement été franchi entre 800 et 600 millions d’années – lors de la seconde oxygénation -, avec un palier significatif autour de 600 Ma, quelques dizaines de millions d’années avant l’explosion du cambrien. ↩
  21. L’ATP (adénosine triphosphate) est la principale molécule de transfert d’énergie des cellules vivantes. Elle stocke l’énergie issue du métabolisme et la libère lors de l’hydrolyse de l’une de ses liaisons phosphates, alimentant les processus biologiques (synthèse, transport, mouvement). Elle constitue ainsi la « monnaie énergétique » universelle du vivant. ↩
  22. L’oxygène permet aussi la synthèse de molécules structurales clés, comme le collagène, et soutient des fonctions coûteuses en énergie telles que la locomotion active, la prédation ou les systèmes nerveux. Ainsi, l’oxygène n’est pas seulement un constituant atmosphérique : il constitue une condition bioénergétique majeure de l’émergence et de la diversification de la complexité biologique. ↩
  23.  Les plantes vasculaires possèdent un appareil conducteur leur permettant un meilleur transport de la sève à partir des racines vers les organes aériens (tiges, feuilles, cônes ou fleurs et fruits) ce qui les distinguent des mousses et autres lichens. ↩
  24. L’altération des silicates continentaux consomme du CO₂ atmosphérique et les plantes vasculaires amplifient cette altération, ce qui entraîne une diminution du CO₂ atmosphérique, un refroidissement climatique à long terme et une régulation du climat à l’échelle géologique. ↩
  25. Rosenstock, N. P., van Hees, P. A. W., Fransson, P. M. A., Finlay, R. D., and Rosling, A.: Biological enhancement of mineral weathering by Pinus sylvestris seedlings – effects of plants, ectomycorrhizal fungi, and elevated CO2, Biogeosciences, 16, 3637–3649. ↩
  26. Chirstian Baars. Review of plant evolution and its effect on climate during the time of the Old Red Sandstone. Proceedings of the Geologists’ Association. Volume 128, Issue 3, 2017. ↩
  27.  R.A. Berner, L’essor des arbres et leur influence sur les teneurs en CO2 et O2 dans l’atmosphère au Paléozoı̈que.C. R. Geoscience 335 (2003). ↩

Illustration : hand-globe-world-help-earth-illustration-1093801-pxhere.com

The post Homo sapiens face à Gaïa 1/3 : dynamiques planétaires et crises du vivant. appeared first on Chroniques de l'Anthropocène.

PDF

18.02.2026 à 11:10

Tipping points, lois de puissance et économie climatique

Alain Grandjean

Comme on l’a vu dans un post précédent portant notamment sur la loi de Pareto, dans de nombreux systèmes — réseaux, marchés financiers, concentration de richesse, catastrophes naturelles — la distribution des données ou des événements n’obéit pas une loi statistique ”normale”. La probabilité de valeurs extrêmes diminue beaucoup plus lentement que dans une telle […]

The post Tipping points, lois de puissance et économie climatique appeared first on Chroniques de l'Anthropocène.

Texte intégral (11749 mots)

Comme on l’a vu dans un post précédent portant notamment sur la loi de Pareto, dans de nombreux systèmes — réseaux, marchés financiers, concentration de richesse, catastrophes naturelles — la distribution des données ou des événements n’obéit pas une loi statistique ”normale”. La probabilité de valeurs extrêmes diminue beaucoup plus lentement que dans une telle loi. C’est le cas des extrêmes climatiques1 qui peuvent provoquer des dommages globaux irréversibles, menaçant des infrastructures, des écosystèmes, voire la survie humaine.

Nous allons voir que ces constatations remettent fondamentalement en cause l’approche généralement employée par les économistes pour tenter d’évaluer l’effort à faire pour limiter le dérèglement climatique. Elles conduisent à une approche renouvelée, fondée sur la notion de robustesse. 

Ce post a été inspiré par des échanges avec Nathanaël Wallenhorst et la lecture de son livre 2049, avec Jean-Pierre Gonguet et François Lévêque, que je remercie chaleureusement. Leur responsabilité n’est en rien engagée dans les phrases qui suivent. 

1. Comment comparer le coût économique de l’inaction et celui de l’action climatique ? 

Les économistes, depuis les travaux précurseurs du “prix Nobel” William Nordhaus, essaient d’apprécier le coût de l’inaction (c’est-à-dire celui des dommages climatiques engendrés par les gaz à effet de serre, dans un scénario de prolongation des tendances, dit Business As Usual) et celui de l’action (le coût macroéconomique des mesures à prendre). Cette approche dite “analyse coûts-bénéfices (ou ACB)”2 leur permet d’en déduire un “optimum” (n’agir ni trop ni trop peu) qu’ils caractérisent en général par un “coût social du carbone”, que nous définirons plus loin.

Cette approche est marquée du sceau apparent du bon sens. On ne peut pas du jour au lendemain arrêter toutes les activités humaines (qui sont toutes génératrices de gaz à effet de serre) ni les remplacer par des activités neutres ou faiblement émettrices en carbone. Nous devons faire des choix collectifs de mitigation raisonnée en choisissant les actions les plus efficaces à moindre coût.

Ceci étant dit, les difficultés de l’exercice sont immenses. Nous n’en citerons que quelques-unes (voir la fiche The Other Economy sur les liens entre réchauffement climatique et croissance du PIB, plus exhaustive sur ces méthodes). Comment évaluer des dommages complexes et interdépendants à un horizon lointains ? 

Nous reviendrons ici sur cette première question. Notons à ce stade que les économistes utilisent des fonctions de dommage3 qui relient la température moyenne planétaire au PIB ou au capital économique. Comment comparer les unités économiques de demain et celles d’aujourd’hui ? La méthode habituellement retenue consistant à retenir un taux d’actualisation pose de nombreux problèmes et repose en fait sur des choix éthiques et politiques. Comment répartir équitablement les efforts entre pays en intégrant un principe de responsabilités différenciées ? Comment répartir les efforts de mitigation dans la durée, sachant que certaines technologies progressent et qu’il peut être utile d’attendre qu’elles soient compétitives et qu’il existe par ailleurs des risques de verrouillage dans des technologies carbonées ? Peut-on représenter l’économie dans son ensemble par un “agent représentatif”4 ? 

L’analyse coûts-bénéfices (ACB) a des limites, qui semblent largement dépassées pour apporter une solution rationnelle à la question posée. 

Mais nous allons ici oublier provisoirement la majorité de ces difficultés pour nous concentrer sur un problème de principe qui nous semble essentiel (évoqué dans la fiche citée plus haut), lié au caractère non-linéaire des impacts du climat, en particulier du fait de l’existence de ”points de bascule” et du risque de catastrophe majeure. Nous allons voir que ce constat, mis en évidence par l’économiste Martin Weitzman dès 20095, conduit à adopter des approches entièrement nouvelles, qu’on peut qualifier de robustes, par opposition aux approches d’optimisation qui caractérisent l’ACB.

2. Non-linéarités climatiques et points de bascule 

Le système climatique n’est pas un système linéaire répondant proportionnellement aux forçages6 externes. Il s’agit d’un système dynamique complexe, composé de sous-systèmes couplés (océan, atmosphère, cryosphère, biosphère) présentant des rétroactions positives, des seuils critiques et des transitions abruptes. Cette architecture implique que de petites variations continues des paramètres de contrôle — concentration de CO₂, flux d’eau douce, albédo — peuvent provoquer des changements qualitatifs majeurs de l’état du système.

Ces phénomènes sont aujourd’hui regroupés sous le terme de points de bascule climatiques (climate tipping points7). Un point de bascule n’est pas un choc qui bouleverse le système,
c’est un moment où le système perd sa capacité à revenir à son état habituel. Il est en général défini comme un seuil qui, lorsqu’il est franchi, entraîne de grands changements, souvent irréversibles à l’échelle humaine, qui modifient qualitativement l’état ou l’évolution du système Terre. Pour mieux comprendre ce dont il est question, on peut se représenter un sous-système climatique, une calotte glaciaire ou une circulation océanique, comme une bille évoluant sur un “paysage de stabilité”. Tant que le climat reste dans une “vallée” de ce paysage, une perturbation (année chaude, sécheresse, apport d’eau douce) déplace le système mais il revient vers son état antérieur : c’est un état stable ; au sommet d’une crête, la moindre perturbation l’en fait basculer durablement : c’est un état instable.
Parmi les exemples les plus étudiés – dont les probabilités à ce stade sont cependant différentes – on peut citer entre autres8 :

  • l’effondrement de la convection des mers du Labrador et d’Irminger
  • la disparition de la circulation méridienne de retournement de l’Atlantique (AMOC),
  • la stabilité des calottes glaciaires du Groenland et de l’Antarctique occidental,
  • la fonte de la banquise arctique et les rétroactions d’albédo,
  • le dépérissement des forêts tropicales et boréales,
  • le dégel du pergélisol et la libération consécutive de gaz à effet de serre.
  • etc…

Des travaux récents montrent que plusieurs de ces éléments pourraient être plus proches de leur seuil critique qu’on ne le pensait auparavant, et que des interactions entre points de bascule peuvent produire des effets en cascade, amplifiant le risque systémique.9

Sur le plan mathématique, ces phénomènes relèvent de la théorie des systèmes dynamiques non linéaires, et plus précisément de la théorie des bifurcations.10 Une bifurcation correspond à une modification qualitative du comportement d’un système lorsque l’un de ses paramètres varie : disparition ou apparition d’états stables, changement de régime, hystérésis. 

Points de bascule climatiques : l’exemple de la bifurcation selle–nœud

Les points de bascule climatiques peuvent être formalisés mathématiquement, grâce à la théorie des bifurcations. Parmi les différents types de bifurcations possibles11, la bifurcation selle–nœud constitue le schéma mathématique le plus simple pour représenter un basculement irréversible du système climatique. C’est pourquoi elle occupe une place centrale dans la littérature sur les tipping points et nous allons la présenter ici à titre pédagogique, pour en tirer une leçon économique.

La bifurcation selle–nœud s’écrit mathématiquement ainsi :



x est une variable d’état du système (par exemple l’intensité d’une circulation océanique, l’étendue d’une calotte glaciaire ou un indicateur agrégé de stabilité climatique) et μ un paramètre de contrôle lentement variable (forçage radiatif, température moyenne globale, apport d’eau douce, etc.).
Le système se comporte différemment selon le signe de μ.

– Si μ>0 , le système possède deux points fixes :


* Un état stable (nœud) : si la variable d’état x atteint ce point de petites perturbations ne lui font pas quitter cet état. 
* Un état instable (selle) : où de petites perturbations suffisent à lui faire quitter cette position

– Lorsque μ=0 les deux points fixes fusionnent : le système devient structurellement instable.

– Si μ<0 il n’existe plus aucun état d’équilibre : l’état stable a disparu.

Dans un processus conduisant à une bifurcation selle–nœud, le paramètre μ diminue. La “vallée” correspondant à l’état climatique stable et la “crête” instable voisine se rapprochent à mesure que le réchauffement progresse, jusqu’à disparaître ensemble. Au-delà de ce point de bascule, l’état climatique antérieur n’existe plus : même si le forçage cesse d’augmenter, le système évolue irréversiblement vers un nouveau régime.

Applications climatiques : points de non-retour et irréversibilité
La bifurcation selle–nœud est le schéma standard utilisé pour modéliser des points de bascule irréversibles dans le système climatique, notamment l’effondrement de la circulation méridienne de retournement de l’Atlantique (AMOC) et la perte irréversible de grandes calottes glaciaires.

Dans ces cas, le système ne devient pas progressivement plus instable : il cesse soudainement d’avoir un état stable. Cette propriété est cruciale pour l’analyse économique du risque climatique car elle invalide toute extrapolation marginale des dommages.

Un élément essentiel mis en évidence par la littérature récente est que ces transitions peuvent être déclenchées non seulement par le franchissement lent d’un seuil (bifurcation-induced tipping), mais aussi par du bruit (au sens statistique) « noise-induced tipping” ou par la vitesse du changement des paramètres (rate-induced tipping), ce qui complique encore l’anticipation et la gestion du risque.12

Ces propriétés suffisent à invalider l’idée selon laquelle les impacts climatiques seraient bien approximés par des fonctions de dommages lisses et convexes, généralement utilisées dans les modèles. Elles supposent en effet une relation continue et croissante des dommages économiques avec l’aggravation du changement climatique, sans sauts ni transitions abruptes, ce qui est contraire aux remarques faites ici.

3. Des non-linéarités aux distributions à queues épaisses

Les non-linéarités dynamiques du système climatique ont une conséquence directe sur la structure statistique des événements extrêmes. En effet, à mesure qu’un sous-système climatique approche d’un seuil critique — par exemple l’affaiblissement de la circulation méridienne de retournement de l’Atlantique (AMOC), la déstabilisation d’une calotte glaciaire ou la perte saisonnière de la banquise arctique — sa résilience diminue. Les mécanismes de rétroaction positive (glace-albédo, stratification océanique, rétroactions hydrologiques ou biosphériques) amplifient alors les perturbations. Il en résulte une augmentation de la variance13, un ralentissement du retour à l’équilibre et un allongement des corrélations temporelles (critical slowing down14). Les fluctuations ne sont plus symétriques autour d’un état moyen, mais deviennent de plus en plus biaisées vers des “excursions” extrêmes.
Statistiquement, cette dynamique se traduit par des distributions fortement asymétriques, dont les queues décroissent lentement : les événements rares mais très intenses — vagues de chaleur exceptionnelles, précipitations extrêmes, sécheresses prolongées ou ruptures abruptes de régimes climatiques — acquièrent une probabilité disproportionnée par rapport à une distribution gaussienne. Ces extrêmes sont alors bien décrits par des distributions de valeurs extrêmes généralisées (GEV en anglais)15 à paramètre de forme positif, ou par des lois à queue épaisse de type puissance.

De nombreuses études empiriques récentes confirment que les distributions des événements climatiques extrêmes — vagues de chaleur, précipitations intenses, crues, sécheresses — présentent des queues lourdes, souvent bien décrites par des lois de Pareto ou des GEV. Par exemple, des analyses hydrologiques récentes montrent que les pics de crue suivent des distributions à longue traîne, impliquant une probabilité non négligeable d’événements très au-delà des niveaux historiquement observés.16 Des résultats similaires ont été obtenus pour les extrêmes de précipitations à haute résolution, où des analyses de maxima horaires issus d’un grand ensemble de modèles climatiques régionaux montrent que la fréquence et l’intensité des pluies extrêmes courtes durées augmentent de manière significative avec le réchauffement, suggérant des distributions à queue lourde pour ces événements rares.17

Ces distributions ne sont pas de simples artefacts statistiques : elles reflètent la structure physique sous-jacente du système, marquée par l’hétérogénéité spatiale, les rétroactions positives et la multiplicité des régimes dynamiques. Dans un tel contexte, la probabilité d’événements extrêmes décroît lentement selon une loi de puissance.

Ces constats ont des implications majeures. Il signifie que certaines trajectoires de réchauffement ou de perturbation climatique, même faiblement probables, peuvent entraîner des dommages globaux irréversibles, affectant les infrastructures, les écosystèmes, la stabilité économique et, dans les cas extrêmes, l’habitabilité de la planète. Dans un tel cadre, raisonner en termes d’impact moyen ou de dommage marginal devient trompeur. Ainsi, les queues épaisses ne sont pas un détail statistique secondaire, mais l’expression probabiliste des non-linéarités physiques du système climatique.

4. Le coût social du carbone 

L’analyse coûts-bénéfices que nous avons évoquée en introduction se résume, dans la recherche économique classique sur le climat, par le concept central de coût social du carbone (CSC, en anglais SCC, Social Cost of Carbon). Il s’agit du coût économique actualisé (voir la fiche sur le taux d’actualisation de The Other Economy) généré par l’émission d’une tonne supplémentaire de CO₂, intégrant l’ensemble des impacts du climat sur l’économie. La  ”consigne” économique qui en découle c’est qu’il est souhaitable de réduire les émissions de CO2 aujourd’hui tant que le coût de cette réduction est inférieur au CSC et que cela ne l’est plus quand il supérieur. Calculé à partir de modèles intégrés climat-économie, le CSC est supposé guider la politique publique : il sert de base à la fixation de taxes carbone ou de quotas d’émissions, en traduisant les “externalités climatiques” en signaux monétaires exploitables par le marché. De nombreuses évaluations de ce CSC ont été faites dans les dernière décennies.18 Elles varient de deux ordres de grandeur (de quelques dizaines de dollars par tonne de CO2 à plus de 1000 dollars), ce qui montre bien le niveau d’incertitude théorique et pratique autour de ces questions.

Formellement, dans ces modèles, on cherche à maximiser l’utilité espérée inter temporelle de la consommation mondiale :

où Ct est la consommation globale à l’année t, β le facteur d’actualisation, et U la fonction d’utilité. et E l’espérance mathématique, étant entendu qu’il s’agit d’un calcul statistique. Le CSC correspond alors à la dérivée marginale de cette utilité par rapport aux émissions : de combien la consommation future sera affectée demain quand on évite une tonne de CO₂ aujourd’hui. 

Cependant, comme l’a souligné très tôt19, l’économiste Martin Weitzman20, ce calcul repose sur des hypothèses cruciales : les dommages climatiques doivent être bornés, et les probabilités d’événements extrêmes doivent décroître rapidement. Si ces conditions ne sont pas respectées et que certains événements sont irréversibles — le CSC devient infini. En d’autres termes, l’approche classique n’est pas conçue pour traiter correctement les risques catastrophiques, et la logique marginale de prix échoue lorsque l’enjeu est la survie ou la catastrophe globale. 

Martin Weitzman a d’ailleurs forgé un théorème21 qu’il a qualifié lui-même de lugubre car sans solution pratique à ses yeux. Son théorème démontre l’impossibilité devant l’incertitude des queues épaisses de recourir au calcul standard de l’espérance mathématique des pertes. Or nous venons de voir précédemment que, les événements extrêmes climatiques n’étaient non seulement pas à exclure mais que leur probabilité ne décroissait pas rapidement. 

5 Le “backstop miracle” : techno-optimisme et illusions de filet de sécurité

Pour répondre à cette critique fondamentale, les économistes modélisant les effets du dérèglement climatique sur l’économie ont recours dans leurs modèles à un « backstop » explicite ou implicite, technologique ou non (voir encadré ci-dessous). 

Il s’agit de dispositifs futurs, quasi inépuisables et accessibles au plan économique qui   seraient capables de résoudre le problème climatique même si la transition actuelle tarde ou déraille. Dans les modèles intégrés classiques la hausse des coûts marginaux de réduction des émissions éventuelles est ainsi toujours limitée. 

La nécessité de backstop dans les systèmes complexes et en économie du climat

Un backstop22 est un mécanisme de dernier recours qui ne fonctionne qu’en cas de crise et assure la stabilité d’un système lorsque ses règles ordinaires échouent. Dans les systèmes techniques (réseaux électriques, réacteurs nucléaires, structures mécaniques), financiers ou informatiques, il se traduit par des réserves, redondances ou marges de sécurité qui empêchent des défaillances locales de se propager en effondrement systémique. La leçon est générale : tout système complexe reposant sur la coordination et la confiance est fragile sans backstop, et un système optimisé sans marge de sécurité devient cassant.

En économie du climat, la notion de backstop prend un sens similaire. Certains modèles tiennent compte (voir partie 7) du recours éventuel à un backstop technologique, un substitut énergétique zéro-carbone, disponible en quantité illimitée à un coût exogène élevé mais décroissant dans le temps. Cette hypothèse borne les coûts d’abattement suffisamment pour éviter la divergence du CSC. D’autres, comme on le verra, procèdent d‘une manière plus sophistiquée, qui conduit au même résultat. On comprend vite que ces approches reposent plus sur des hypothèses ad hoc que sur des certitudes avérées ; or ce qui est en jeu est existentiel : c’est l’habitabilité de la planète.

On verra en partie 8 que de nouvelles approches sont à considérer pour tenir compte de manière plus solide du théorème sinistre de Weitzman. 

Le modèle DICE – le plus important, à la fois comme référence historique et parce qu’il est toujours utilisé, par Nordhaus et d’autres économistes, dans diverses versions – fait appel à un backstop technologique. Ce “backstop miracle” est séduisant parce qu’il permet de penser que les innovations technologiques – énergie propre, capture du carbone, réseaux intelligents – viendront à bout du problème sans remettre fondamentalement en cause nos modes de production et de consommation. Il repose sur la croyance que l’innovation fera ce que la réglementation ou la transformation sociale seule ne peuvent pas faire. Il va de soi que l’introduction de ce backstop rend inutile la discussion sur les risques majeurs et leur incertitude. Malheureusement il s’agit d’une grave illusion.

6. Les limites du backstop technologique en pratique

Plusieurs raisons montrent que ce pari est loin d’être assuré :

6.1 Des solutions incertaines et potentiellement insuffisantes

Les technologies souvent citées comme promesses de backstop – comme la capture et séquestration directe du carbone, la géo ingénierie, la fusion nucléaire – sont loin d’être au point, ni au plan technique ni au plan économique, et ne sont pas exemptes d’effets secondaires encore mal connus et difficiles à prévoir. Leur efficacité réelle à l’échelle globale reste plus qu’incertaine. Dans certains cas (comme la capture directe du carbone de l’air, DAC) certaines limites sont physiques et liées aux lois de la thermodynamique. Dans d’autres cas, les limites physiques sont relatives aux matériaux critiques. Aucun backstop ne peut annuler ces contraintes physiques.

6.2 Aucun déploiement à grande échelle d’une solution technologique n’est instantané

À supposer qu’une technologie se dégage, elle supposera de construire des infrastructures – qu’il s’agisse d’énergie nucléaire décarbonée, de réseaux de capture et de stockage du carbone, ou de technologies encore émergentes – ce qui prendra des décennies. Cela contraste avec la rapidité à laquelle les tipping points climatiques peuvent produire des effets irréversibles.

Contrairement à un prêteur en dernier ressort qui peut injecter de la liquidité rapidement, aucune technologie ne se déploie à la vitesse d’un signal monétaire.

6.3 Effet rebond

L’histoire des technologies d’efficacité montre qu’elles peuvent engendrer un effet rebond, où les gains d’efficacité conduisent à plus de consommation plutôt qu’à moins d’émissions nettes, réduisant l’effet attendu de la technologie. 

6.4 La dissuasion de la mitigation

Penser que les innovations technologiques viendront à temps peut aussi conduire à reporter les efforts immédiats de réduction des émissions. C’est l’effet “mitigation deterrence” (dissuasion de la mitigation) : la croyance en la possible efficacité d’options technologiques – non prouvées à ce jour- peut conduire à limiter l’ambition. Cela concerne la géo ingénierie, les technologies d’émissions négatives (captage et stockage du CO₂, DAC, BECCS) et même l’adaptation au changement climatique : investir dans l’adaptation (digues, climatisation, agriculture résistante, etc.) pourrait faire oublier la mitigation.

7. Les baskstops dans les modèles IAMs les plus utilisés en ACB

Les ACB appliquées au changement climatique reposent principalement sur un noyau restreint de modèles d’évaluation intégrée (Integrated Assessment Models, IAMs23), qui combinent dynamique économique, trajectoires d’émissions et réponse climatique afin d’estimer le coût social du carbone, y compris dans des scénarios de réchauffement élevé. Les trois modèles de référence dans ce cadre sont DICE, FUND et PAGE, qui apportent des réponses distinctes, explicites ou implicites, aux difficultés soulevées par Weitzman concernant les risques catastrophiques et les queues épaisses, et qui mettent en évidence le lien crucial entre réduction des émissions et limitation des dommages.

Le modèle DICE24, élaboré par William Nordhaus, traite la question de la faisabilité et de la non-divergence en introduisant explicitement une technologie de backstop. Celle-ci représente un substitut énergétique zéro-carbone, disponible en quantité illimitée à un coût exogène élevé mais décroissant dans le temps. Ce backstop n’est pas décrit physiquement mais joue un rôle central. En réduisant suffisamment tôt les émissions, DICE limite la hausse de température et, par conséquent, les dommages climatiques et leur coût. Ainsi, le backstop technologique agit non seulement comme un mécanisme de dernier recours pour les coûts d’atténuation, mais aussi comme un backstop dynamique qui empêche les dommages de devenir excessifs ou infinis, maintenant le CSC dans une plage finie et calculable.

Le modèle FUND, élaboré par Richard Tol adopte une approche plus indirecte. Il ne représente pas explicitement une technologie de dernier recours, mais introduit les coûts d’abattement via des fonctions de coût réduites, calibrées à partir de la littérature technico-économique. Ces fonctions imposent de facto une limite à la hausse du coût marginal d’abattement et, en agissant suffisamment tôt sur les émissions, permettent de prévenir une augmentation excessive de la température et des dommages associés. Le backstop est donc implicite : il résulte des hypothèses fonctionnelles retenues et de la limitation des dommages par la régulation des émissions, plutôt que de la modélisation explicite d’une technologie sans carbone. Ce mécanisme intégré permet d’éviter toute explosion des coûts ou du CSC, tout en conservant une logique ACB standard.

Le modèle PAGE25 développé par Chris Hope se distingue par sa réponse probabiliste aux risques extrêmes. PAGE ne recourt ni à un backstop technologique explicite, ni à un plafond direct des coûts d’abattement. La non-divergence du CSC est assurée par un ensemble d’hypothèses structurelles : des dommages climatiques explicitement bornés (en fraction du PIB), des distributions de probabilité tronquées pour les paramètres climatiques et économiques, des catastrophes modélisées comme des chocs discrets de taille finie, un horizon temporel limité et un taux d’actualisation positif mais faible. Dans ce cadre, limiter les émissions à temps agit comme un backstop dynamique : en réduisant la probabilité et l’ampleur des événements catastrophiques, la politique d’abattement précoce empêche les dommages de diverger et maintient le CSC calculable. PAGE reconnaît ainsi les incertitudes et les queues épaisses, mais les intègre dans un cadre probabiliste qui exclut par construction les pertes infinies.

En résumé, alors que DICE répond à l’argument de Weitzman par une borne technologique explicite, FUND par des bornes implicites sur les coûts et la régulation précoce des émissions, et PAGE par des bornes probabilistes sur les dommages et un mécanisme de limitation dynamique des risques catastrophiques. Les trois modèles conservent une logique ACB standard. Tous sont construits pour que le CSC reste fini. C’est ce qui explique également pourquoi ces modèles n’impliquent pas nécessairement des politiques climatiques “robustes” fondées sur des interdictions ou des contraintes absolues, mais plutôt des instruments graduels de type prix du carbone, même dans des scénarios de réchauffement élevé.

8. Les approches robustes, une option pour sortir de l’impasse

C’est ici qu’interviennent les approches dites robustes. 26

8.1 Approches robustes et analyses coûts-bénéfices

Plutôt que d’optimiser une espérance d’utilité calculée sur un scénario probabilisé, ces méthodes cherchent à protéger le système contre les pires scénarios plausibles. La formulation générale du problème à résoudre peut s’écrire mathématiquement ainsi :

Où P est un ensemble de distributions plausibles et admissibles (non comprises donc celles qui conduisent à un scénario climatique inacceptable). L’objectif est de choisir la meilleure politique P parmi un ensemble P de politiques admissibles. Il s’agit de maximiser au sein de ces politiques, l’espérance de l’utilité minimale de chacun des scénarios. 

Pour chaque politique P, les conséquences économiques et climatiques futures sont incertaines et représentées par une distribution probabiliste. La somme

représente le bien-être cumulatif actualisé, où U(Ct) est la fonction d’utilité de la consommation à chaque période t et βt le facteur d’actualisation. Ce mécanisme actualise le futur, donnant moins de poids aux périodes lointaines, mais en considérant un horizon infini, on prend en compte l’ensemble des conséquences à long terme.

Le terme

correspond à l’espérance sous cette distribution, et la présence du min traduit que l’on considère le scénario le plus défavorable. Cette structure reflète une logique de prudence maximale, proche de l’argument de Weitzman sur les queues épaisses et les risques climatiques extrêmes.

L’interprétation économique de l’approche robuste est que la politique optimale doit maximiser le bien-être social dans le pire scénario plausible. Elle formalise ainsi un choix de politique fondé sur la prudence face à l’incertitude profonde, en intégrant explicitement les risques extrêmes et le long terme, tout en conservant une logique économique d’allocation des ressources. Cette formulation mathématique du principe de précaution étendue relie directement émissions, dommages et bien-être futur.

Dans ce cadre, souvent qualifié de Robust Decision Making (RDM), le coût social du carbone n’est plus un simple coût marginal : il devient conditionnel au respect d’une zone sûre, excluant les trajectoires conduisant à une ruine globale. À mesure que l’on s’approche d’une frontière catastrophique, le coût marginal croît fortement, ce qui justifie l’introduction de contraintes, de normes, voire d’interdictions ciblées sur certaines activités à forte intensité carbone. Le CSC conserve un rôle d’arbitrage à l’intérieur de cette zone sûre, mais cesse d’être l’instrument central de gestion du risque existentiel.

8.2 Approches robustes “élargies”

Ces approches robustes ne se limitent pas fondamentalement à l’usage “encadré”  de l’analyse coûts-bénéfices, tel qu’on vient de le voir. Elles englobent l’approche du type de celle qui a été proposée par une équipe du FMI et que nous avons présentée dans ce blog dans un article intitulé La Nature au cœur du raisonnement économique : l’émergence d’une nouvelle macroéconomie. Il s’agit de sortir de la logique d’optimisation27 et de se préoccuper prioritairement de la capacité de nos systèmes socio-économiques à résister face aux fluctuations à venir.

Conclusion

Les lois de puissance s’appliquent aussi aux catastrophes climatiques. L’économie classique du climat et les modèles utilisés sont inadaptés car ils appliquent des hypothèses de bornes (éventuellement via l’introduction d’un backstop hypothétique) et de lois de probabilités “normales” aux queues fines.

Les approches robustes permettent de combiner prudence (interdictions, normes, planification) pour éviter la catastrophe, et raisonnement économique. Dans un monde à queues épaisses et longues traînes, le rare peut dominer la moyenne. Comme dans la finance, il faut prévoir le pire et assurer le maintien de l’habitabilité pour les humains de notre planète.

Alain Grandjean


Notes

  1. Température, précipitations, neige et glace, sécheresse, vent et tempêtes…  ↩
  2. Voir par exemple https://www.ipp.eu/methodes/analyse-cout-benefice ainsi que la fiche  The Other Economy sur l’analyse coûts-bénéfices et ses limites. ↩
  3. Voir la fiche de The Other Economy, pour la partie “Définition de la fonction de dommage, ou comment rendre le réchauffement climatique inoffensif pour la croissance économique” et cette recension d’Alain Grandjean et Marion Cohen Recension des publications récentes sur l’évaluation des dommages climatiques, Avril 2025 ↩
  4. Voir le post Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie au paragraphe 8 ↩
  5. On Modeling and Interpreting the Economics of Catastrophic Climate Change, The Review of Economics and Statistics (2009) 91 (1): 1–19. ↩
  6.  En climatologie, le forçage est un facteur qui modifie l’équilibre énergétique de la Terre, provoquant un réchauffement ou un refroidissement du climat. Il peut être naturel, comme les éruptions volcaniques ou les variations de l’activité solaire, ou d’origine humaine, comme les émissions de gaz à effet de serre ou la déforestation. ↩
  7. Voir cette étude parue dans Nature Lenton TM, Rockström J, Gaffney O, Rahmstorf S, Richardson K, Steffen W, Schellnhuber HJ. Climate tipping points – too risky to bet against. Nature. 2019. Et ce rapport plus récent : The global tipping points report 2025. ↩
  8. Voir le contenu de Wikipedia sur les points de basculement climatique ↩
  9. Voir Trajectories of the Earth System in the Anthropocene. Will Stefen et al. PNAS. 2018 et Wunderling et al. Interacting tipping elements increase risk of climate domino effects under global warming, Earth Syst. Dynam.2021. ↩
  10. Voir cette présentation introductive deJulien Baglio d’après le cours de Joseph Zyss ↩
  11. On peut citer les plus connues, la bifurcation de Hopf et la bifurcation Cuspide.
    Voir Kuehn, A mathematical framework for critical transitions: Bifurcations, fast–slow systems and stochastic dynamics, in Physica D: Nonlinear Phenomena, Volume 240, Issue 12,  2011.
    Voir Ashwin et al., P., Wieczorek, S., Vitolo, R., & Cox, P. Tipping points in open systems: bifurcation, noise-induced and rate-dependent tipping. 2012. ↩
  12. id Note 8 – Voir le contenu de Wikipedia sur les points de basculement climatique. ↩
  13. La variance est une mesure statistique de la dispersion des valeurs d’une variable autour de sa moyenne. Par exemple, deux régions peuvent avoir la même température moyenne estivale, mais celle où les températures quotidiennes varient fortement entre jours frais et vagues de chaleur présentera une variance plus élevée, indiquant une plus grande variabilité climatique. ↩
  14. L’allongement des corrélations temporelles désigne le fait qu’un système proche d’un point de bascule met de plus en plus de temps à revenir à l’équilibre après une perturbation. On peut l’illustrer par une bille dans un bol : tant que le bol est bien creux, la bille revient vite au centre, mais si le bol devient presque plat (proche d’un seuil), la bille oscille lentement et conserve longtemps la trace des perturbations, ce qui augmente la corrélation entre états successifs. Dans le climat, ce phénomène a par exemple été étudié pour l’AMOC : à mesure qu’elle s’affaiblit sous l’effet d’apports d’eau douce, les indicateurs comme l’autocorrélation et la variance de certaines séries océaniques augmentent, suggérant un ralentissement de la dynamique et une proximité possible d’un point de bascule. ↩
  15. Les distributions de valeurs extrêmes généralisées (GEV) sont une sorte de généralisation des lois de puissance. Elles décrivent le comportement statistique des événements les plus extrêmes d’une variable (maxima ou minima) et se caractérisent notamment par un paramètre de forme. Lorsque ce paramètre de forme est positif, la distribution est de type Fréchet, ce qui signifie que la probabilité d’événements extrêmes décroît lentement et que des valeurs très grandes restent possibles, sans borne supérieure théorique. En climatologie, ce type de GEV est souvent utilisé pour modéliser les précipitations extrêmes ou les crues, où des épisodes exceptionnellement intenses, bien que rares, peuvent survenir. Par exemple, l’analyse des maxima annuels de pluies journalières dans certaines régions tropicales conduit fréquemment à un paramètre de forme positif, indiquant un risque non négligeable d’événements pluviométriques extrêmes d’intensité très élevée. ↩
  16. Voir Salah El Adlouni et al. Climatic a priori information for the GEV distribution’s shape parameter of annual maximum flow series, Journal of Hydrology, vol. 661, 2025. ↩
  17. Jayaweera, L. et al. Evaluation and projection of extreme rainfall from a large ensemble of high-resolution regional climate models in Australia. Weather and Climate Extremes, 50, 100818. 2025. ↩
  18. Voir par exemple ce récent papier de l’économiste R. Daniel Bressler Breaking Down the Mortality and Social Cost of Carbon. ↩
  19. Id note 2 – Voir par exemple https://www.ipp.eu/methodes/analyse-cout-benefice ainsi que la fiche de The Other Economy sur l’analyse coûts-bénéfices et ses limites. ↩
  20. Notons que Martin Weitzman n’est pas un théoricien de l’effondrement mais de la décision en incertitude radicale, ce monde de l’ignorance des probabilités précises des événements et des “inconnues inconnues” . Les “inconnues inconnues” (unknown unknowns) désignent des événements ou mécanismes dont on ignore à la fois l’existence et la probabilité : ce sont des risques que l’on ne sait même pas formuler à l’avance. Contrairement aux “connues connues” (événements identifiés et probabilisables) ou aux “connues inconnues” (événements identifiés mais dont la probabilité est incertaine), les inconnues inconnues échappent aux cadres probabilistes classiques. ↩
  21. Voir cet article de Charlotte Gardes (BSI economics) sur les apports de Martin Weitzman  « Pourquoi l’économiste doit-il porter attention aux scénarios extrêmes de changement climatique ? » ↩
  22. Voir le post Crises bancaires et financières : le rôle du prêteur en dernier ressort où nous avons présenté cette notion appliquée à la finance. ↩
  23. Pour une présentation critique des IAMs voir ces deux notes :
    Alain Grandjean, Les modèles IAMs et leurs limites, Chaire Energie et Prospérité, 2024
    et Alain Grandjean et Gaël Giraud, Comparaison des modèles météorologiques, climatiques et économiques, 2017. ↩
  24. Voir cet article de Lint barrage et William Nordhaus publié en 2024. ↩
  25. Voir Hope, Chris W. The Social Cost of CO₂ from the PAGE09 model. Economics Discussion Papers, No. 2011-39, Kiel Institute for the World Economy (2011). ↩
  26. Une approche alternative, le minimax-regret (MMR), vise à minimiser l’écart maximal entre la politique adoptée et la meilleure politique a posteriori. Voir par exemple cet article : A quantitative minimax regret approach to climate change: Does discounting still matter? Ecological Economics. (2010). Bien qu’utile pour limiter le regret dans des scénarios graves, elle ne garantit pas que les catastrophes extrêmes soient évitées. Elle ne se confond donc pas avec les approches robustes, qui elles visent explicitement à protéger le système contre le pire scénario plausible. ↩
  27. Voir les travaux d’Olivier Hamant, son TEDx La révolution de la robustesse  et son livre  “La troisième voie du vivant » Odile Jacob, 2022. ↩

Image : Venezia, Veneto, Italia – Giovanni – Pexels – libre de droits

The post Tipping points, lois de puissance et économie climatique appeared first on Chroniques de l'Anthropocène.

PDF

11.02.2026 à 09:31

Crises bancaires et financières : le rôle du prêteur en dernier ressort

Alain Grandjean

Les banques centrales ont plusieurs fonctions (voir la fiche sur l’indépendance de la  banque centrale sur le site The Other Economy). Nous allons ici traiter de celle de prêteur en…

The post Crises bancaires et financières : le rôle du prêteur en dernier ressort appeared first on Chroniques de l'Anthropocène.

Texte intégral (7427 mots)

Les banques centrales ont plusieurs fonctions (voir la fiche sur l’indépendance de la  banque centrale sur le site The Other Economy). Nous allons ici traiter de celle de prêteur en dernier ressort (Lender of last resort, LOLR). Elle  consiste  principalement à fournir rapidement de la liquidité aux banques ou institutions financières solvables mais temporairement en risque « d’illiquidité », afin d’éviter que des retraits massifs ou des paniques bancaires ne provoquent l’effondrement du système financier. On se souvient du célèbre mot de Mario Draghi  “Whatever it takes” en 2012 pour mettre fin à la crise qui menaçait la zone euro dans son ensemble. Comme l’écrit un journaliste des Echos : “Si, dans un premier temps, les mots suffisent, la BCE va rapidement prendre une mesure importante. La création de l’OMT1 mécanisme destiné à racheter de façon illimitée des titres de dette de pays en difficulté. Il ne sera jamais activé, mais le fait que la BCE devienne prêteur en dernier ressort suffit à protéger durablement les pays périphériques”. 

Le LOLR vise à préserver la stabilité du système de paiement, maintenir la confiance dans la monnaie et limiter la contagion entre institutions, sans garantir la solvabilité des banques ou autres acteurs financiers défaillants. Ce rôle peut être soit codifié explicitement dans la loi (Banque du Canada, Riksbank), soit exercé comme fonction implicite (Fed, BCE2). Dans tous les cas, ce qui définit un LOLR c’est la capacité à fournir rapidement de la liquidité aux banques solvables en crise pour protéger la stabilité financière et la confiance dans la monnaie.

Nous allons voir dans la suite pourquoi les systèmes monétaires et financiers modernes ne peuvent se passer de cette fonction, sans avoir besoin d’exposer une théorie d’ensemble des crises financières et de leur variété. Nous ne traiterons pas ici des cas (rares) où la monnaie s’effondre du fait d’une hyperinflation (Allemagne de Weimar en 1923, effondrement du peso argentin en 2001, crise de la livre libanaise en 2019, etc.). La résolution de ces crises majeures ne relève pas du LOLR. Les crises de liquidité associées aux paniques bancaires seront qualifiées dans la suite de crises bancaires ou financières, même si elles affectent le fonctionnement des paiements donc la monnaie. 

Introduction — Crises endogènes et mythe de l’équilibre

Les crises financières jalonnent l’histoire du capitalisme moderne3. Paniques bancaires du XIXᵉ siècle, crise de 1929, crise financière mondiale de 2008, crises de change, tensions sur les marchés en 20204 ou plus récemment effondrements de certaines “monnaies” numériques5. Cette répétition montre que les crises ne sont ni des accidents isolés ni des anomalies historiques, mais des phénomènes structurels. Pourtant, le récit dominant tend encore à expliquer les crises par des causes extérieures au système économique lui-même : un choc exogène, une erreur de politique, un événement exceptionnel. Cette lecture est liée à la théorie de l’équilibre général, selon laquelle l’économie serait fondamentalement stable et ne pourrait s’éloigner durablement de l’équilibre qu’à la suite de perturbations extérieures imprévisibles. Les crises ne seraient que temporaires et appelées à se résorber spontanément une fois le choc absorbé.

L’histoire bancaire et financière contredit profondément cette vision.  Les crises bancaires et financières sont endogènes : elles émergent du fonctionnement normal des systèmes fondés sur le crédit, la liquidité et la confiance. Nous  distinguerons deux types de crises, souvent confondues :

  • les crises bancaires, qui portent sur la liquidité, la convertibilité et la confiance dans la monnaie scripturale,
  • les crises financières, qui résultent de l’endettement, accru par l’effet de levier, et des pertes de  valorisation des actifs ; ce sont des crises de solvabilité.

Ces deux types de crises obéissent à des mécanismes différents — même si dans les deux cas, la spéculation joue un rôle évident — mais elles sont aussi profondément articulées : une crise financière peut se transformer en crise bancaire, et une crise bancaire peut amplifier une crise financière. Lorsque la valeur des actifs chute, la solvabilité est remise en question ; lorsque la confiance disparaît, même des institutions solvables peuvent devenir illiquides. Loin d’être une anomalie ou une entorse aux règles du marché, le prêteur en dernier ressort est une construction institutionnelle visant à empêcher que les dynamiques endogènes de la finance ne dégénèrent en effondrement généralisé du système monétaire. Comprendre cette nécessité est l’objectif central de cette note.

1 Les crises bancaires ou bank runs

La fragilité monétaire des banques découle directement de leur mode de fonctionnement, lié aux mécanismes de création monétaire. Rappelons donc que les banques créent des dépôts à l’occasion de leurs prêts. Ce pouvoir de création monétaire est limité par la réglementation (voir encadré sur le ratio de liquidité). Mais il est clair qu’elles ont moins de réserves6 et de liquidités immédiatement disponibles (billets ou réserves à la banque centrale) que de sommes exigibles à vue (comptes courants et comptes sur livret — appelés aussi livrets d’épargne). Cette possibilité permet d’augmenter le crédit et la masse monétaire, mais expose la banque à un risque de liquidité.  Cela peut arriver dans deux cas non indépendants :

  • si trop de déposants retirent simultanément leur argent, ce qu’on appelle un bank run (ruée vers le guichet). 
  • si une banque n’inspire plus confiance à ses consoeurs, ce qui peut la conduire à manquer de monnaie centrale.

Dans les deux cas, la panique est auto-réalisatrice : la crainte de ne pas pouvoir retirer ses fonds pousse les déposants à agir collectivement, aggravant la situation. Ce phénomène explique pourquoi les faillites bancaires sont souvent liées à un manque de liquidité plutôt qu’à une insolvabilité réelle. Dans le deuxième cas (pertes de confiance mutuelles), le marché interbancaire peut se geler7 ce qui provoque une crise majeure (ce qui s’est passé en 2008).

Conclusion : une banque solvable (bénéficiaire comptablement), qui, en outre respecte les ratios de liquidité,  peut néanmoins devenir illiquide et devoir immédiatement se déclarer en faillite. C’est pour cela que les sauvetages bancaires des banques systémiques se font en quelques heures.

Ratios de liquidité réglementaires

Les banques européennes doivent respecter divers ratios imposés dans la réglementation bancaire (mise en place après la crise de 2008 via les accords de Bâle III et transposée dans la réglementation européenne – CRR / CRD), dont le ratio de couverture de liquidité, le Liquidity Coverage Ratio (LCR).

Le LCR un ratio à court terme mesurant la capacité d’une banque à faire face à un scénario de stress aigu de 30 jours (hausse des retraits, absence de financement, etc.). Il compare :
– au numérateur : les actifs liquides dits de haute qualité (High-Quality Liquid Assets, HQLA) que la banque peut mobiliser rapidement (billets, réserves à la banque centrale, obligations souveraines liquides),
– au dénominateur : les sorties nettes de trésorerie estimées dans un scénario de crise sur 30 jours.

L’exigence est que la banque détienne au moins 100 % de HQLA par rapport à ses sorties nettes de trésorerie, ce qui signifie qu’elle serait en théorie capable de survivre un mois de stress sans refinancement externe. En pratique, les banques européennes ont maintenu des LCR bien au-dessus de 100 % ces dernières années8.

Mais les sorties nettes de trésorerie utilisées dans le calcul du LCR reposent sur des hypothèses statistiques et des scénarios de stress calibrés ex ante. Une panique bancaire constitue par nature un événement hors modèle, marqué par une accélération brutale et non linéaire des retraits. Le cas de Credit Suisse racheté de toute urgence par UBS en 2023 illustre cette limite : alors que la banque respectait les exigences de liquidité réglementaires avant la crise, la perte de confiance a provoqué des sorties de dépôts à une vitesse et une ampleur incompatibles avec les hypothèses du LCR, rendant nécessaire une intervention publique et une reprise d’urgence. 

2 Les crises financières

Les crises financières, dont on va parler maintenant, ne sont pas liées à la création monétaire, stricto sensu. Elles  obéissent à une autre logique que Hyman Minsky9 a bien mis en évidence.

2.1 La dynamique du crédit source endogène d’instabilité

Le crédit est au cœur du fonctionnement moderne des économies. Contrairement à une idée reçue selon laquelle l’épargne précède nécessairement l’investissement, c’est  le crédit qui  finance l’activité dans les systèmes bancaires contemporains. Or la dynamique du crédit est intrinsèquement génératrice de cycles et de risques de crises.

Le crédit tend à croître en période d’expansion et à se contracter lors des ralentissements. En phase de croissance, les banques et les marchés financiers deviennent plus confiants et anticipent des rendements futurs élevés. Dans ce contexte, les agents économiques sont incités à accroître leur recours à l’endettement et à l’effet de levier10 pour financer de nouveaux investissements ou prendre des positions fondées sur l’anticipation de la hausse des prix des actifs. Ces investissements et les stratégies des “spéculateurs”11 soutiennent la production, les profits et la valorisation des actifs, ce qui renforce la confiance générale et encourage de nouveaux emprunts. Les banques prêtent alors davantage, alimentant à la fois la demande et la hausse des prix des actifs.

Une perte de confiance peut se produire à tout instant qui inverse les anticipations et la dynamique. Dans cette phase de contraction, la peur et l’incertitude incitent à réduire le crédit, ce qui amplifie la baisse économique et accentue les pertes de valeur.  Les anticipations spéculatives s’inversent. Le recours antérieur à un levier élevé accentue et accélère la contraction. Une petite variation de la valeur des actifs peut en effet provoquer des pertes disproportionnées pour des agents fortement exposés. Par exemple, si une banque détient un portefeuille fortement « leveragé » (avec fort effet de levier) et que la valeur des actifs baisse de quelques %, les pertes en capital peuvent dépasser ce que la banque peut absorber, même si ses actifs restent supérieurs à zéro. 

2.2 Les crises de marché liées au shadow banking

Les crises financières ne se limitent pas aux banques traditionnelles. Depuis les années 1980, le développement du shadow banking12 — opérateurs non bancaires de crédit et de financement — a introduit de nouvelles sources d’instabilité, amplifié les cycles financiers et rendu le système plus vulnérable aux « runs de marché » et aux fire sales.

Ces institutions empruntent à court terme pour investir à long terme. Comme les banques, elles sont exposées au risque de panique : si leurs créanciers perdent confiance, ils retirent rapidement leurs fonds ou cessent de renouveler leurs prêts. Le shadow banking augmente donc la disponibilité de crédit, stimulant l’investissement et la croissance et accroît la fragilité globale, car une défaillance peut se propager rapidement, mais là  sans filet réglementaire. Le shadow banking échappe en effet en grande partie aux exigences prudentielles, aux ratios de liquidité et au filet de sécurité publique applicables aux banques traditionnelles. Il est soumis à une régulation principalement axée sur les marchés et la protection des investisseurs.

Contrairement aux retraits massifs de dépôts, les “runs de marché“ se produisent sur les marchés de produits de financement à court terme : repos (voir encadré), billets de trésorerie, fonds monétaires. Lorsqu’un acteur perd confiance, il peut refuser de renouveler des prêts à court terme ou demander un remboursement immédiat. Cette panique se propage rapidement aux autres acteurs, par contagion systémique, même si les institutions ne sont pas techniquement insolvables. Ainsi, la fragilité du marché repose sur la liquidité perçue, et non sur la valeur fondamentale des actifs.

Qu’est-ce qu’un REPO ?

Un repo (repurchase agreement, ou accord de rachat) est un prêt garanti à très court terme, dans lequel une institution vend des titres financiers à une contrepartie contre des liquidités et s’engage simultanément à racheter ces titres à une date ultérieure à un prix convenu. Le différentiel entre le prix de vente et le prix de rachat constitue le coût implicite du financement. Les repos sont largement utilisés par les banques commerciales et d’investissement, pour gérer leur liquidité quotidienne et financer leurs portefeuilles ; par les gestionnaires d’actifs et fonds d’investissement, pour placer temporairement des liquidités excédentaires ou financer des achats d’actifs ; et par les “asset owners” (fonds de pension, compagnies d’assurance, fonds souverains), pour optimiser la gestion de trésorerie et couvrir leurs engagements à court terme.

En pratique, le repo permet à ces institutions de convertir rapidement des actifs sûrs en liquidités ou de financer des positions de manière sécurisée, tout en offrant un instrument flexible et considéré comme peu risqué pour le marché interbancaire et les marchés financiers en général.Les banques centrales utilisent les repos comme un outil de prêteur en dernier ressort (voir plus loin) : elles achètent temporairement des titres auprès des banques commerciales en échange de liquidités. Cela permet aux banques d’obtenir immédiatement du cash pour faire face à leurs besoins urgents. Ces opérations sont particulièrement utilisées en période de tension sur les marchés, quand les banques auraient autrement du mal à refinancer leurs actifs ou à honorer les retraits de leurs clients. En pratique, la banque centrale injecte de la liquidité au moment où survient une crise de confiance ou de liquidité, puis récupère les titres lorsque la situation se normalise. 

Pour se protéger d’une crise de liquidité, les institutions sont souvent contraintes de vendre rapidement leurs actifs, souvent à des prix bien inférieurs à leur valeur comptable. Ces ventes d’urgence appelées « fire sales » ont plusieurs effets. Elles amplifient la baisse des prix des actifs, affectant les bilans d’autres institutions. Elles créent des spirales auto-renforcées :  la baisse de prix entraîne des pertes, qui conduisent à de nouvelles ventes et … de nouvelles baisses. Elles peuvent transformer une crise de liquidité en crise financière globale. 

Même si les banques sont mieux régulées, elles sont fortement connectées au shadow banking. Les runs de marché et les fire sales peuvent donc contaminer le système bancaire classique, des défaillances de banques pourtant solvables, voire un gel du marché interbancaire et, si le mécanisme de LOLR (voir plus loin) n’intervient pas, une crise monétaire.

3 Interconnexions, réseaux et contagion financière

Les banques, les entreprises et les marchés financiers forment un réseau complexe, où les défaillances d’un acteur peuvent se propager à l’ensemble du système. Les interconnexions financières ont deux effets opposés :

  • un effet de stabilisation par diversification : lorsqu’une banque prête à plusieurs contreparties, le risque de défaut individuel est dilué,
  • un effet de fragilité systémique : la dépendance croissante entre institutions signifie qu’une défaillance peut se propager rapidement, entraînant des cascades de défauts et un risque systémique.

Un réseau bien connecté peut absorber des chocs limités mais amplifier les chocs importants. L’histoire de la crise de 2008 montre qu’une contagion rapide est possible même à partir d’un segment de marché limité (par exemple, les crédits hypothécaires subprimes). La contagion peut se produire par plusieurs mécanismes. Un défaut bancaire entraîne des pertes immédiates chez ses créanciers. Indirectement,  la perception du risque se diffuse, entraînant un gel des marchés interbancaires ou la réduction du crédit. Enfin la vente forcée d’actifs (fire sale) déprécie les prix, fragilisant encore d’autres institutions.

Ainsi, un choc initial limité peut devenir une crise systémique. Comme pour le crédit, la fragilité des réseaux financiers est endogène : elle émerge de l’accumulation de dettes, de la centralisation des risques et de la confiance mutuelle dans les contreparties. Il ne faut pas attendre un choc extérieur pour voir apparaître des crises : les interconnexions et la structure même du réseau suffisent à générer une vulnérabilité systémique. Ce risque a été démontré mathématiquement (voir encadré).

Dans un réseau financier, certaines institutions jouent un rôle central, comme des hubs dans un réseau de transport. Leur défaillance affecte directement de nombreuses autres institutions et leur rôle est crucial dans la circulation du crédit et de la liquidité. Ces banques “too big to fail” ou “too interconnected to fail” dites systémiques posent un problème d’aléa moral : leur importance structurelle peut les inciter à prendre plus de risques, en comptant sur une intervention en dernier ressort si nécessaire.

Modèles de réseaux représentant les risques de propagation de défaillance
Les modèles mathématiques de réseaux sous forme de graphes permettent d’étudier la propagation des défaillances. Voici deux articles de référence dont on recopie ici le résumé :

Gai & Kapadia (2010)13
Cet article explore “comment la probabilité et l’impact potentiel de la contagion sont influencés par les chocs agrégés et idiosyncrasiques, les changements dans la structure du réseau et la liquidité du marché des actifs. Nos conclusions suggèrent que les systèmes financiers présentent une tendance à la fois robuste et fragile : si la probabilité de contagion peut être faible, les effets peuvent être extrêmement étendus lorsque des problèmes surviennent. Nous expliquons également pourquoi la résilience du système face à des chocs assez importants avant 2007 n’aurait pas dû être considérée comme un indicateur fiable de sa robustesse future.”

Acemoglu et al. (2015)14
“Cet article soutient que l’ampleur de la contagion financière présente une forme de transition de phase : tant que l’ampleur des chocs négatifs affectant les institutions financières est suffisamment faible, un réseau financier plus dense (correspondant à une structure plus diversifiée des engagements interbancaires) renforce la stabilité financière. Cependant, au-delà d’un certain point, les interconnexions denses servent de mécanisme de propagation des chocs, ce qui rend le système financier plus fragile. Nos résultats soulignent ainsi que les mêmes facteurs qui contribuent à la résilience dans certaines conditions peuvent constituer des sources importantes de risque systémique dans d’autres.”

4 De la crise financière à la crise monétaire et réciproquement

4.1 De la crise financière à la crise monétaire

Les crises financières ne deviennent pas automatiquement des crises monétaires. Une baisse des prix d’actifs, des pertes bancaires ou des défauts d’emprunteurs peuvent être absorbés tant que la confiance dans la capacité du système à honorer ses engagements à court terme demeure intacte. La transformation d’une crise financière en crise monétaire c’est le passage d’une perte de valeur des actifs à une panne de liquidité.

Toute crise financière débute par une perte de valeur des actifs. Des investissements se révèlent moins rentables que prévu, certaines dettes deviennent douteuses, et les bilans se détériorent. À ce stade, il s’agit d’un phénomène classique dans une économie de marché fondée sur le crédit, comme on l’a vu. La bascule intervient lorsque les acteurs cessent de se demander si les actifs valent ce qui était anticipé à long terme, pour se concentrer sur une question plus immédiate : les promesses de paiement à court terme seront-elles honorées ? 

Dans un système bancaire moderne, la liquidité repose largement sur des mécanismes de refinancement mutuel. Les banques se prêtent entre elles sur la base d’une confiance partagée dans la qualité des bilans et la continuité du système. Lorsque la crise financière s’aggrave, cette confiance se fragilise. Les établissements deviennent réticents à prêter à leurs pairs, non par manque de liquidité globale, mais par incertitude sur la solvabilité individuelle des contreparties. Le marché interbancaire se grippe, voire se fige complètement. Ce gel transforme une crise financière localisée en crise de liquidité systémique. Des institutions solvables sur le papier se retrouvent incapables de refinancer leurs engagements à court terme.

À mesure que les tensions de liquidité s’accumulent, la crainte se diffuse au-delà des banques. Déposants, investisseurs et contreparties cherchent à convertir leurs créances en actifs perçus comme parfaitement liquides et sûrs. Cette dynamique collective peut prendre la forme de retraits bancaires, de ventes massives d’actifs ou de refus de “rouler” des financements de court terme. La dynamique de panique s’enclenche comme on l’a vu. Des institutions pourtant solvables deviennent illiquides. C’est ce mécanisme qu’a illustré la crise de 2008 : une crise financière née sur les marchés du crédit immobilier s’est transformée en crise monétaire lorsque la confiance dans les promesses de paiement bancaires s’est effondrée.

4.2 De la crise monétaire à la crise financière : quand la panique détruit l’économie réelle

Inversement, une crise monétaire peut provoquer une crise financière profonde. Lorsque la liquidité disparaît, le crédit est coupé, les entreprises ne peuvent plus financer leur activité courante, les faillites se multiplient. Les actifs sont liquidés dans l’urgence, les prix s’effondrent, et la crise financière s’aggrave. La crise de 1929 illustre ce mécanisme inverse : la panique bancaire et la contraction monétaire du début des années 1930 ont amplifié une récession initiale en effondrement économique durable. L’absence d’un prêteur en dernier ressort efficace a transformé une crise sévère en catastrophe systémique.

5. Implications pour la régulation et la prévention : le rôle central du prêteur en dernier ressort

Nous venons de voir que les crises monétaires et financières sont endogènes aux systèmes complexes fondés sur le crédit bancaire et le shadow banking. Le rôle du régulateur est de concevoir des institutions capables d’en limiter les effets destructeurs. L’institution la plus déterminante est celle du prêteur en dernier ressort (LOLR).

Le risque de bank run illustre parfaitement sa fonction : fournir de la liquidité aux banques solvables mais illiquides ce qui stabilise la confiance des déposants, empêche la panique de se propager à d’autres institutions et maintient le système monétaire opérationnel, même en période de crise.  Mais nous avons vu que les crises financières ( de solvabilité) peuvent dégénérer en crises monétaires. Le LOLR joue donc un rôle aussi pour limiter ce risque.

La  fonction du LOLR est exactement celle du « back stop » connu dans de nombreux cas en physique, en écologie  ou dans les réseaux « électriques ou numériques » (voir encadré).

La nécessité  de backstop dans les systèmes complexes

Un backstop est un mécanisme de dernier recours destiné à assurer la stabilité d’un système lorsque ses règles ordinaires ou ses processus automatiques échouent. Il n’agit pas en permanence, mais en cas de crise. En matière financière et monétaire,  sa simple existence suffit souvent à prévenir une crise. 

Ce concept s’applique à de nombreux domaines au-delà de la finance. Dans un réseau électrique, le backstop comprend des réserves de capacité, des barrages hydrauliques à démarrage rapide,  empêchent une surcharge locale ou des mécanismes automatiques de délestage comme des disjoncteurs. Ces dispositifs ne sont pas utilisés en fonctionnement normal, mais ils évitent que des pannes locales se propagent en black-out systémique. Dans l’informatique et les réseaux distribués, les backstops se traduisent par des serveurs de secours, des réplications de données et des protocoles de tolérance aux pannes, qui empêchent la propagation des défaillances. Dans les systèmes mécaniques ou structurels, les marges de sécurité et les dispositifs redondants assurent que des surcharges imprévues ne provoquent pas la rupture instantanée de la structure. En ingénierie mécanique, les structures critiques (ponts, avions, ascenseurs) intègrent des coefficients de sécurité et des dispositifs redondants qui n’optimisent pas le rendement, mais empêchent la rupture brutale en cas de surcharge imprévue. Un système “optimisé” sans marge de sécurité est plus performant en apparence, mais cassantDans un réacteur nucléaire, les barres de contrôle constituent un backstop : elles ne produisent pas l’énergie, mais absorbent les réactions en chaîne lorsqu’elles deviennent instables. Dans la théorie des réseaux, un backstop correspond à un nœud ou une capacité externe capable d’absorber des chocs lorsque les connexions ordinaires sont saturées. Sans ce mécanisme, les chocs se propagent par contagion, conduisant à des cascades de défaillances. Même les écosystèmes disposent de formes naturelles de backstop : la diversité des espèces et les capacités de régénération permettent au système de résister aux chocs environnementaux.

La leçon générale est claire : tout système complexe reposant sur la coordination et la confiance est structurellement fragile sans backstop. La stabilité n’est pas une propriété  spontanée des règles ordinaires ; elle dépend de l’existence d’une capacité de soutien exceptionnelle, capable d’absorber des chocs extrêmes et de maintenir l’intégrité du système. Supprimer ou ignorer le backstop revient à transformer une robustesse apparente en vulnérabilité latente. C’est pourquoi les tentatives de se passer de régulation dans le monde des cryptoactifs sont toutes condamnées à échouer (voir le post « Tokénisation de la finance et euro numérique »).

Cette fonction a été imaginée par Walter Bagehot, économiste, banquier et journaliste,  qui, dans son ouvrage considéré souvent comme  mythique Lombard Street a formulé les principes qui restent aujourd’hui la référence en la matière15. Il avait bien compris que les banques pouvaient être solvables (leurs actifs valant plus que leurs passifs) et illiquides (incapables de répondre à tous les retraits immédiats). Il identifiait la cause principale des faillites bancaires comme la panique des déposants, et non l’insolvabilité. Ainsi, une banque centrale avait à ses yeux comme rôle en tant que LOLR  de prévenir les effondrements liés à la liquidité, tout en laissant les pertes financières se matérialiser. Il avait bien en tête que le prêteur en dernier ressort n’empêche pas les crises financières ni ne garantit la rentabilité des banques. Son rôle est strictement préventif pour la monnaie : il met fin à la panique, il maintient la continuité des paiements et du crédit à court terme et permet aux ajustements financiers inévitables de se produire sans effondrement monétaire systémique.

Bagehot recommandait une intervention ciblée et prudente reposant sur trois piliers :

1. Prêter librement aux banques solvables pour qu’elles puissent faire face aux retraits.

2. Prêter contre bonnes garanties pour éviter les abus.

3. Prêter à un taux élevé pour ne pas encourager une prise de risque excessive.

Cette “règle” vise à équilibrer deux objectifs : stabiliser la monnaie et limiter l’aléa moral. Elle reste pleinement d’actualité.

Conclusion

Le prêteur en dernier ressort est une institution centrale pour limiter la transformation des crises financières en effondrement monétaire systémique. Il ne supprime pas l’instabilité ni ne garantit la rentabilité des banques, mais il fournit rapidement de la liquidité aux institutions solvables mais temporairement illiquides, préservant la confiance, la continuité des paiements et la stabilité du système. Les crises récentes montrent que les outils prudentiels seuls — ratios de capital et de liquidité — ne suffisent pas à prévenir les paniques, dont la dynamique non linéaire échappe aux modèles.

La fonction de LOLR agit comme un backstop institutionnel, crucial pour les banques et, de plus en plus, pour le shadow banking, où des “runs de marché” et des ventes forcées peuvent contaminer l’ensemble du système. Elle exige toutefois un encadrement strict afin de limiter l’aléa moral : protéger la monnaie et la confiance sans inciter à des prises de risque excessives.

Avec la digitalisation et la tokenisation des actifs, les enjeux évoluent. La réflexion sur le LOLR et la conception d’une CBDC sûre deviennent indissociables : garantir la continuité des paiements, protéger la confiance et encadrer l’innovation financière sont désormais des impératifs simultanés.

Alain Grandjean 


crédit photo : ©Monkasei – Dreamstime.com

Notes

  1. L’OMT est une des initiatives s’inscrivant dans la politique de Quantitative Easing. de la BCE enclenchée en 2010. ↩
  2. Concernant la BCE cette fonction entre (non explicitement) dans le cadre de sa mission de stabilité financière (§3.3 des statuts) ↩
  3. Voir le livre de référence de Kindleberger Histoire mondiale de la spéculation financière Valor 2005. Mais aussi les livres plus explicatifs de Christian Chavagneux Une brève histoire des crises financières – Des tulipes aux subprimes ou d’Olivier Lacoste, Les crises financières. ↩
  4. En mars 2020 du fait de la crise du COVID, les marchés financiers ont connu de fortes tensions, marquées par une dégradation aiguë de la liquidité. Ces tensions ont été amplifiées par des sorties massives des fonds du shadow banking. Voir les notes de la Banque des règlements internationaux, de la Banque Centrale Européenne ou de la Reserve fédéral.e ↩
  5. Les stablecoins algorithmiques Ifon Finance/titan et Terra/Ust se sont effondrés en 2021 et 2022. La faillite de la plateforme FTX a entraîné l’effondrement quasi-total du token FTT fin 2022. ↩
  6. On parle  parfois de système à « réserves fractionnaires » pour dire que les réserves sont une fraction des dépôts mais ce terme renvoie parfois à une théorie fausse, qui a été enseignée et l’est encore. Voir ce post. ↩
  7. Voir cette déclaration d’un membre de la BCE. ↩
  8. Voir par exemple ce communiqué de l’ European Bank Authority. ↩
  9. Voir la fiche Minsky et Fisher, deux auteurs pour comprendre les crises  et le livre de Minsky Stabiliser une économie instable. ed. Les petits matins, 2016. 1ère éd. en anglais. 1986. ↩
  10. L’effet de levier désigne le recours à l’endettement pour augmenter la taille d’un investissement par rapport aux fonds propres engagés. À l’image d’un levier mécanique qui amplifie une force appliquée, l’endettement permet d’amplifier les gains potentiels sur les fonds propres lorsque les rendements sont favorables. Mais il accentue de manière symétrique les pertes et la vulnérabilité financière en cas de retournement. ↩
  11. En un sens on pourrait dire que tout acteur détenant une “position” spécule…mais on se limite ici aux acteurs dont le métier est précisément de ne prendre des positions que pour les vender ou les acheter en fonction de leurs anticipations. ↩
  12. Le shadow banking comprend tous les intermédiaires financiers qui effectuent des activités similaires à celles des banques commerciales, mais hors du contrôle direct de la régulation bancaire : fonds d’investissement, véhicules de titrisation, marchés de repos et de titres, etc. ↩
  13. Gai, , Prasanna and Kapadia, Sujit and Kapadia, Sujit, Contagion in Financial Networks (March 23, 2010). Bank of England Working Paper No. 383 ↩
  14.  Acemoglu, Daron, Asuman Ozdaglar, and Alireza Tahbaz-Salehi. 2015. « Systemic Risk and Stability in Financial Networks. » American Economic Review 105 (2): 564–608. ↩
  15. On peut lire pour se convaincre du caractère “mythique”  le livre  des économistes Goodhart, Charles, and Gerhard Illing (eds), Financial Crises, Contagion, and the Lender of Last Resort: A Reader (Oxford, 2002). ↩

The post Crises bancaires et financières : le rôle du prêteur en dernier ressort appeared first on Chroniques de l'Anthropocène.

PDF

04.02.2026 à 10:00

Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie 

Alain Grandjean

La règle des 80/20, dite “loi de Pareto” (voir encadré), est  largement utilisée en entreprise …

The post Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie  appeared first on Chroniques de l'Anthropocène.

Texte intégral (7427 mots)

La règle des 80/20, dite “loi de Pareto” (voir encadré), est  largement utilisée en entreprise  en tant que pratique opérationnelle. Elle permet d’identifier ce qui a le plus d’impact afin de concentrer les efforts sur les actions les plus utiles. Nous allons voir ici que derrière cette règle se cache une logique, observable dans des contextes aussi variés que la culture, la finance ou l’organisation industrielle. Ces contextes sont riches de distributions de données, où quelques éléments dominent, tandis qu’une majorité forme une “longue traîne”. Cette régularité renvoie à une structure statistique générale : les lois de puissance1.

Nous allons montrer dans la suite comment les lois de puissance façonnent la dynamique économique contemporaine. Du constat empirique de Pareto à la domination des blockbusters, en passant par la formalisation des réseaux dits “invariants d’échelle”, celle des bulles financières et la formation des oligopoles, nous verrons que la concentration des ressources, de l’attention et des parts de marché n’est pas accidentelle, mais structurelle.  Nous donnerons des exemples concrets issus du cinéma, de l’édition, de la musique ou du sport professionnel, puis nous présenterons des modèles issus de la science des réseaux, notamment celui de Barabási–Albert, qui  permettent de comprendre comment les phénomènes de “winner takes all” émergent et se stabilisent. Nous appliquerons ces raisonnements aux mondes de la finance et de la formation des bulles financières et à celui de l’économie industrielle, à celui des médicaments  et à  la formation des oligopoles. Les lois de puissance apparaissent alors non comme une anomalie ou comme une curiosité mathématique, mais comme une clé de lecture essentielle des économies contemporaines.

Cette note a bénéficié des commentaires de Paul-Henri Roméo. Sa responsabilité n’est bien sûr pas engagée dans ce document.

Loi de Pareto : d’une règle empirique à la structure des systèmes économiques

Dans de nombreux contextes professionnels, une règle empirique simple est devenue un outil courant de décision et de priorisation : la règle des 80/20.

Les praticiens du management, du marketing, de la logistique ou de l’ingénierie l’utilisent quotidiennement, souvent sans se préoccuper de son origine théorique. Elle sert avant tout à gagner du temps, à concentrer l’effort là où il est le plus efficace, et à éviter la dispersion.

Ainsi, il n’est pas rare d’observer que :
– 20 % des clients génèrent environ 80 % du chiffre d’affaires ;
– 20 % des produits concentrent l’essentiel des ventes ou des stocks ;
– une minorité de fonctionnalités d’un logiciel concentre la majorité des usages ;
– une minorité de commandes génère la plupart des retards de livraison.


Dans ces situations, la règle des 80/20 n’est pas utilisée comme une loi exacte, mais comme une démarche opérationnelle : elle permet d’identifier rapidement les éléments dominants d’un système et de structurer l’action autour d’eux. Elle reflète une intuition largement partagée par les praticiens : les contributions ne sont pas réparties uniformément, et chercher à traiter tous les éléments de la même manière est souvent inefficace.

Ce qui est frappant, toutefois, c’est la robustesse2 et la généralité de cette régularité. Bien au-delà des contextes managériaux, on retrouve des phénomènes similaires dans des domaines très différents : répartition des ventes culturelles, audiences médiatiques, tailles d’entreprises, parts de marché, fréquentation des plateformes numériques ou encore trafic sur Internet. Partout, une minorité d’éléments concentre une part disproportionnée des flux, tandis qu’une majorité reste marginale, sans être négligeable.

Ces observations renvoient à deux caractéristiques structurelles majeures :
la concentration, où quelques acteurs ou objets dominent largement le système ;
la longue traîne, constituée d’une multitude d’éléments faiblement contributifs, mais dont l’ensemble peut représenter une masse significative.

C’est précisément cette combinaison — domination de quelques-uns et étirement de la distribution — que la règle des 80/20 cherche à capturer de manière approximative.

1. Pareto : de l’observation empirique à la forme mathématique des distributions de données

1.1 L’observation d’une régularité  empirique 

Lorsque Vilfredo Pareto3 étudie, à la fin du XIXᵉ siècle, la répartition des patrimoines dans plusieurs pays européens, son ambition n’est pas de formuler une loi universelle, encore moins une théorie normative de la justice sociale. Son approche est essentiellement empirique. En compilant des données fiscales et cadastrales, il constate que la distribution observée s’écarte systématiquement des formes statistiques alors utilisées pour décrire les phénomènes naturels ou sociaux.

Ce qui frappe Pareto n’est pas seulement l’existence d’écarts importants entre individus, mais la structure même de la distribution. Contrairement à une répartition symétrique autour d’une valeur moyenne, les données montrent une concentration marquée : une petite fraction de la population détient une part très élevée du patrimoine total, tandis qu’une majorité se répartit le reste selon une décroissance régulière. Cette forme se reproduit de manière remarquablement stable d’un pays à l’autre, indépendamment des contextes institutionnels ou historiques.

Pareto met ainsi en évidence une régularité statistique robuste, qui sera plus tard résumée — de manière simplificatrice — par la règle des 80/20. Mais son observation est plus générale : il s’agit d’une distribution sans échelle caractéristique, c’est-à-dire non représentable par des valeurs typiques qui la résument. Une distribution  gaussienne (voir §1.2), par exemple, est résumée par sa  moyenne et son écart-type qui mesure la dispersion autour de cette moyenne. Une distribution sans échelle (scale-free) est dominée par ses extrêmes et ne possède pas de taille, de richesse ou de fluctuation “typique”.

Encadré historique : de Pareto aux lois de puissance 
Bien que Pareto ait observé la forte concentration des patrimoines, il n’a jamais formulé de loi mathématique générale. Le lien entre ses observations et les lois de puissance modernes a été établi progressivement :

– George K. Zipf4 (1935) étudie  la fréquence des mots dans les textes, découvrant une décroissance assimilable à une loi de puissance : dans un texte donné, la fréquence d’occurrence f(n) d’un mot est liée à son rang n dans l’ordre des fréquences par une loi de la forme  f(n)=K/n où K  est une constante. 

– Benoît Mandelbrot5, au début des années 1960, formalise mathématiquement des distributions en loi de puissance, montrant que les inégalités de revenus ou la distribution des tailles d’entreprises suivent des lois stables à queue lourde.

– Barabási & Albert (voir §4) modélisent des réseaux en croissance avec attachement préférentiel, produisant naturellement des distributions en loi de puissance et des hubs, expliquant la concentration dans les systèmes sociaux, économiques et numériques.

1.2 Loi normale, moyenne et illusion de représentativité

Pour comprendre la portée de cette observation, il est utile de la comparer aux distributions plus familières, notamment la loi normale (ou gaussienne, ces deux termes sont synonymes). Dans une distribution gaussienne, la majorité des observations se concentrent autour d’une moyenne qui résume efficacement le système. C’est le cas de la taille des adultes dans un pays, leur température corporelle, du nombre d’heures passées à la télé,  des résultats au BAC etc. Les écarts extrêmes sont rares et jouent un rôle marginal. Ce type de distribution est bien adapté à des phénomènes où les fluctuations sont le résultat de nombreuses causes indépendantes et de faible amplitude.

Les distributions observées par Pareto, et plus tard dans de nombreux contextes économiques, sont de nature très différente. Elles se caractérisent par une queue longue, où les valeurs  décroissent lentement. Dans ces distributions, la moyenne devient un indicateur fragile, parfois peu informatif, car une petite fraction des observations contribue de manière disproportionnée au total et qu’elle peut changer avec l’introduction d’un nouveau point extrême. On peut dénombrer beaucoup de petites villes et quelques mégalopoles énormes :  la  moyenne de la taille des villes dans un tel échantillon change beaucoup si on en rajoute une6

1.3 Les lois de puissance expliquent les propriétés observées

Pour comprendre pourquoi les distributions observées présentent à la fois concentration et longue traîne, il est utile de visualiser la forme d’une loi de puissance. Mathématiquement, une loi de puissance est une relation entre deux quantités x et y qui peut s’écrire de la façon suivante : y=axk a est une constante dite constante de proportionnalité, k, valeur négative, est une autre constante, dite exposant, puissance, indice ou encore degré de la loi et x nombre réel strictement positif. Voici un graphique et son commentaire issus de Wikipedia.

image wikipédia illustrant la distribution d'une loi de puissance et d'une longue traîne en vert et jaune

La distribution d’une loi de puissance, correspondant par exemple à un classement de popularité des sites web (en ordonnée le classement d’un site, en abscisse les sites classés par ordre décroissant de popularité). À gauche, la zone verte illustre le principe des 80-20. (20% des sites cumulent 80 % des visites). À droite la queue de la distribution illustre l’effet “longue traîne”.

Quelques propriétés pédagogiques importantes expliquent ce que Pareto avait observé :

  1. Absence d’échelle caractéristique
    Contrairement à la loi normale, une loi de puissance n’a pas, comme on l’a dit,  de moyenne typique qui résume l’ensemble des valeurs. Des caractéristiques robustes comme la médiane peuvent être définies7, mais elles ne capturent pas l’essentiel du phénomène. Les valeurs les plus élevées (super-riches, blockbusters, hubs d’un réseau) jouent un rôle dominant. La concentration extrême est donc structurelle.
  2. Longue traîne
    La décroissance lente de y=axk implique que de nombreuses observations de faible amplitude coexistent avec quelques valeurs très élevées. La traîne de la distribution s’étend très loin, ce qui rend possible la coexistence simultanée de super-dominants et d’une multitude de participants marginaux.
  3. Stabilité sous agrégation
    La forme de la loi de puissance se conserve souvent lorsqu’on combine plusieurs ensembles similaires (d’où le terme “autosimilaire” dont on verra au § suivant  l’application  aux fractales). Cela explique pourquoi Pareto a retrouvé la même structure dans différents pays ou contextes économiques : les mécanismes locaux de croissance et d’accumulation produisent une régularité statistique robuste au niveau global.

1.4 Lois de puissance et  fractales

Les lois de puissance sont intimement liées à la notion de fractale. Une distribution en loi de puissance est dite auto-similaire, car la forme de la distribution se répète à différentes échelles : qu’on considère les plus grands patrimoines ou les plus petits, le rapport entre les rares valeurs élevées et la multitude de valeurs modestes suit la même règle statistique. Cette propriété explique pourquoi la concentration et la longue traîne coexistent dans presque tous les systèmes observés — marchés, réseaux sociaux ou ventes culturelles — et pourquoi des patterns similaires apparaissent dans des domaines très différents. Même si les fractales ne sont pas le sujet de cette note, elles fournissent une intuition visuelle forte : les systèmes économiques dominés par des lois de puissance sont, à leur manière, autosimilaires et hiérarchiquement organisés.

Reste à comprendre maintenant comment cette forme émerge dynamiquement dans des contextes où les agents interagissent et se sélectionnent mutuellement. C’est l’objet du chapitre suivant.

2. “The Winner takes all” : dynamiques de concentration dans l’économie de l’attention

Les distributions de type parétien se manifestent avec une clarté particulière dans les domaines où la ressource fondamentale est l’attention. Parce que celle-ci est cumulative et auto-renforçante, elle tend à se concentrer sur quelques acteurs, qui accaparent l’essentiel du temps d’écoute, de la visibilité médiatique ou de l’audience. La concentration observée relève alors d’une dynamique de type « winner takes all”

Cette expression ne signifie pas que le gagnant capte littéralement tout, mais que les premiers captent beaucoup plus que les suivants, et ce de manière disproportionnée. Les écarts entre les leaders et le reste de la distribution sont sans commune mesure avec les différences observées dans des systèmes plus homogènes. Une œuvre légèrement plus visible peut générer un succès massif, tandis que des productions proches en qualité restent marginales.

Comment expliquer que des différences initiales relativement modestes produisent, au fil du temps, des écarts aussi extrêmes ? La réponse ne se trouve pas uniquement dans la qualité intrinsèque ou dans le talent, mais dans la dynamique même des systèmes d’attention.

2.1 Les exemples du cinéma, des livres, de la musique et des superstars

L’industrie cinématographique offre un exemple emblématique de cette dynamique. Chaque année, des centaines de films sortent sur les écrans, mais une poignée d’entre eux réalise l’essentiel du box-office mondial. Ces blockbusters ne se contentent pas de réussir un peu mieux que les autres : ils dominent largement l’ensemble du marché.

Plusieurs mécanismes se combinent. Les budgets marketing sont concentrés sur quelques titres, ce qui accroît leur visibilité initiale. Le succès en salle génère une couverture médiatique accrue, qui renforce à son tour la fréquentation. Les plateformes de recommandation, les classements hebdomadaires et le bouche-à-oreille amplifient encore ces effets. Le résultat est une distribution très étirée : quelques films8 concentrent la majorité des recettes, tandis qu’une longue traîne de productions reste faiblement visible.

Des mécanismes analogues sont à l’œuvre dans l’édition et la musique. Dans le secteur du livre, les listes de best-sellers jouent un rôle central. Une fois qu’un ouvrage entre dans ces classements, il bénéficie d’une exposition accrue en librairie, sur les plateformes en ligne et dans les médias. Cette visibilité supplémentaire augmente les ventes, ce qui consolide sa position dans les classements. Le processus est circulaire.

La musique amplifie encore cette logique, notamment avec le streaming. Les plateformes mettent en avant les titres déjà populaires, via des playlists éditoriales ou algorithmiques. Les morceaux les plus écoutés sont davantage recommandés, ce qui accroît encore leur audience. Là encore, une minorité d’artistes concentre une part considérable des écoutes mondiales, tandis que la majorité demeure dans une longue traîne faiblement monétisée.

Ce phénomène conduit à l’émergence de superstars, dont la visibilité dépasse largement celle de leurs concurrents, parfois indépendamment d’écarts proportionnels de qualité ou de productivité. Le succès devient un facteur de production à part entière.

2.2 L’économie de l’attention comme système cumulatif

Ce qui unifie ces exemples, c’est la présence de boucles de rétroaction positives. La visibilité engendre l’attention, l’attention engendre la visibilité. Chaque succès augmente la probabilité de succès futur. Dans un tel contexte, l’histoire compte : l’ordre d’arrivée, les premiers succès et les trajectoires initiales ont un impact durable.

L’économie de l’attention fonctionne ainsi comme un système cumulatif, dans lequel les distributions de résultats prennent naturellement la forme de lois de puissance. Les phénomènes de “winner takes all” ne sont pas des anomalies à corriger ponctuellement, mais des conséquences structurelles de la manière dont l’information, la visibilité et les choix individuels interagissent.

Pour passer de ce constat empirique à une compréhension plus formalisée, il faut identifier les mécanismes élémentaires à l’œuvre dans ces dynamiques cumulatives. Le chapitre suivant s’attache à expliciter l’un de ces mécanismes fondamentaux, l’attachement préférentiel, souvent résumé par l’idée simple : « le succès appelle le succès ». 

3. L’attachement préférentiel : le succès comme dynamique

Dans le chapitre précédent, le succès a été décrit à travers ses résultats : parts de marché, audiences, ventes, visibilité. Ces indicateurs donnent une image statique des hiérarchies observées. Mais pour comprendre pourquoi ces hiérarchies prennent une forme aussi marquée et persistante, il faut déplacer l’analyse vers les processus dynamiques qui les produisent.

L’idée centrale de l’attachement préférentiel est la suivante : la probabilité de succès futur dépend du succès passé. Autrement dit, le succès n’est pas seulement une conséquence de caractéristiques intrinsèques, il devient lui-même un facteur causal. Cette logique transforme des différences initiales, parfois modestes, en écarts durables et cumulés.

Ce principe a été formulé sous différentes appellations — avantage cumulatif, effet Matthieu9 — mais il renvoie toujours à la même intuition fondamentale : dans certains systèmes, la croissance est proportionnelle à la taille.

3.1 Processus multiplicatifs et amplification

Considérons un acteur — une entreprise, un artiste, un produit — objet d’un choix collectif. Si cet acteur est déjà connu, visible ou recommandé, il a davantage de chances d’être sélectionné à nouveau. Chaque choix renforce sa position relative, ce qui accroît encore la probabilité de choix futurs. La dynamique est circulaire.

Ce mécanisme ne suppose ni rationalité parfaite10 ni stratégie consciente. Il suffit que les décisions individuelles soient influencées, même faiblement, par des signaux de popularité ou de visibilité. Dans ce cas, l’agrégation de comportements locaux produit une dynamique globale fortement asymétrique.

L’attachement préférentiel peut ainsi être compris comme une règle probabiliste minimale : plus un acteur est déjà choisi, plus il est susceptible de l’être à nouveau. Cette règle suffit à générer des hiérarchies très inégalitaires.

Un élément clé de l’attachement préférentiel est le rôle de l’information imparfaite11. Dans des environnements complexes, les agents ne peuvent pas évaluer exhaustivement toutes les options disponibles. Ils s’appuient sur des signaux simplificateurs : popularité, réputation, classement, notoriété. Ces signaux ne sont pas neutres. Ils reflètent l’histoire passée du système et orientent les choix futurs. En ce sens, l’attachement préférentiel peut être vu comme une conséquence naturelle d’une rationalité limitée12 : lorsque l’information est coûteuse, suivre ce qui est déjà populaire devient une stratégie raisonnable, bien que collectivement amplificatrice.

3.2 Limites et contre-mécanismes 

Pris isolément, l’attachement préférentiel conduit à une concentration extrême. Or, les systèmes réels présentent souvent des contre-mécanismes : saturation des marchés, contraintes de capacité, obsolescence, régulation, coûts d’entrée ou innovations disruptives. Ces facteurs modèrent, sans l’annuler, la dynamique cumulative.

L’attachement préférentiel n’est pas  une description exhaustive, mais  un mécanisme de base, susceptible d’être enrichi par d’autres hypothèses. Mais pour aller au-delà de l’intuition, l’attachement préférentiel  et ses contre-mécanismes doivent être inscrits dans une structure explicite. Celle des réseaux s’est révélée particulièrement adaptée et féconde. Dans un réseau en croissance, chaque nouvel acteur établit des liens avec des acteurs existants. Si la probabilité de créer un lien dépend du nombre de liens déjà existants, alors l’attachement préférentiel devient une règle de construction du réseau.

C’est dans ce cadre que le modèle de Barabási–Albert apporte une contribution décisive. Il montre qu’un mécanisme d’attachement préférentiel, combiné à une croissance progressive du réseau, suffit à produire des structures dominées par quelques hubs et une longue traîne de nœuds faiblement connectés.


4. Le modèle de Barabási–Albert : l’émergence des réseaux “scale-free”

4.1 Pourquoi passer par les réseaux ?

Les mécanismes décrits jusqu’ici — concentration, longue traîne, attachement préférentiel — appellent une représentation capable de relier des interactions locales simples à des structures globales observables. La notion de réseau fournit ce cadre. Dans un réseau, les entités (entreprises, œuvres, individus, plateformes) sont représentées par des nœuds (les sommets d’un graphe représentant le réseau), et leurs relations (transactions, recommandations, citations, collaborations) par des liens.

Cette représentation permet de dépasser une approche purement agrégée des marchés ou des audiences. Elle rend explicite la manière dont la visibilité, l’influence ou la position d’un acteur dépendent de sa place dans un ensemble de relations. Dans ce langage, le succès se traduit par un grand nombre de connexions, et la concentration par l’existence de hubs — des nœuds beaucoup plus connectés que la moyenne.

C’est dans ce cadre que s’inscrit le modèle proposé en 1999 par Albert-László Barabási et Réka Albert13, initialement pour décrire la structure du Web, mais dont la portée dépasse largement ce contexte.

4.2 Les deux hypothèses fondatrices

Le modèle de Barabási–Albert  repose sur deux hypothèses seulement. La première est la croissance du réseau : le système n’est pas figé : de nouveaux nœuds apparaissent progressivement. Dans un contexte économique, cela correspond à l’entrée de nouvelles entreprises, de nouveaux produits, de nouveaux créateurs ou de nouvelles œuvres.

La seconde est l’attachement préférentiel. Lorsqu’un nouveau nœud arrive, il ne se connecte pas au hasard. Il a une probabilité plus élevée de se relier aux nœuds déjà bien connectés. Autrement dit, les acteurs déjà visibles attirent plus facilement de nouvelles relations.

Ces deux hypothèses sont empiriquement plausibles et ne supposent ni coordination centrale ni rationalité parfaite. Elles traduisent simplement le fait que, dans un environnement complexe, les nouveaux entrants s’orientent vers ce qui est déjà visible ou reconnu.

4.3 Les réseaux “invariants d’échelle”14 (ou scale-free)

À partir de ces hypothèses, le modèle produit un résultat remarquable : la distribution du nombre de connexions par nœud suit une loi de puissance (d’exposant -3). Cela signifie que le réseau ne possède pas d’échelle caractéristique. La majorité des nœuds possède peu de liens, tandis qu’une minorité en concentre un très grand nombre. Ces nœuds fortement connectés jouent un rôle structurant : ce sont les hubs du réseau. Leur présence n’est pas le résultat d’un choix délibéré ou d’une optimisation globale, mais l’issue naturelle d’une dynamique cumulative. Cette structure est observée empiriquement dans de nombreux systèmes économiques et culturels.

Le modèle de Barabási–Albert : principe de la démonstration

1. Construction du modèle

On part d’un petit réseau initial contenant quelques nœuds reliés entre eux.
À chaque étape, un nouveau nœud est ajouté au réseau ; il crée m liens vers des nœuds déjà présents ; le choix des nœuds à connecter n’est pas aléatoire.

2. Attachement préférentiel
La probabilité qu’un nouveau lien se connecte à un nœud donné dépend du nombre de liens déjà possédés par ce nœud.
Si un nœud a un degré k (c’est-à-dire k connexions avec d’autres noeuds), alors la probabilité Π(k) qu’il reçoive un nouveau lien est proportionnelle à ce degré :


Cela signifie simplement  qu’un nœud deux fois plus connecté qu’un autre a deux fois plus de chances d’attirer un nouveau lien. Le dénominateur sert à normaliser pour que la somme des probabilités fasse 1.

3. Évolution du nombre de connexions d’un nœud
Considérons un nœud i introduit à l’instant tiÀ chaque nouvel ajout de nœud, m nouveaux liens sont créés  et  le nœud i peut en recevoir une fraction.
On peut alors écrire, en moyenne :

Or, chaque lien ajoute deux extrémités au réseau, donc :

Ce qui donne  :

4. Résolution et interprétation
Cette équation différentielle se résout aisément :

Cela veut dire que plus un nœud est ancien, plus il a eu le temps d’accumuler des liens  et que cette croissance suit une loi de puissance, et non une croissance linéaire.

5. Distribution des degrés (on nombre de connexions)
On s’intéresse maintenant au nombre de nœuds ayant un degré donné k.
En inversant la relation précédente, on obtient que la probabilité P(k) qu’un nœud ait un degré k vérifie :

Cela signifie que les grands degrés sont rares mais pas exceptionnellement rares et qu’-il n’existe pas de degré typique : le réseau est sans échelle (scale-free).

6. Logique globale de la démonstration
La démonstration repose sur une chaîne logique simple :
1. le réseau croît dans le temps ;
2. l’attachement préférentiel favorise les nœuds déjà connectés ;
3. cette règle produit une équation de croissance proportionnelle au degré ;
4. cette croissance mène naturellement à une loi de puissance ;
5. les hubs émergent sans planification centrale.

Un aspect essentiel du modèle de Barabási–Albert est le rôle de l’histoire dans le processus. Les premiers nœuds bénéficient d’un avantage structurel : étant présents plus tôt, ils ont plus d’occasions d’accumuler des connexions. Cet effet d’antériorité peut conduire à des trajectoires très différentes à partir de conditions initiales proches.

Cette dépendance au sentier15 (path dependence) implique que les positions dominantes ne sont pas nécessairement le reflet d’une supériorité intrinsèque durable. Elles peuvent résulter de circonstances initiales favorables, amplifiées par la dynamique du réseau. Une fois établies, ces positions sont difficiles à contester, car les hubs attirent mécaniquement une part disproportionnée des nouvelles connexions.

4.4 Limites et extensions du modèle de B-A

Malgré sa puissance explicative, le modèle de Barabási–Albert reste très simplifié. Pris isolément, il tend à produire une concentration croissante sans borne. Or, les systèmes réels sont soumis à des contraintes supplémentaires : saturation de la demande, coûts croissants, régulation, innovation, obsolescence.

Pour tenir compte de ces éléments, plusieurs extensions ont été proposées : introduction de caractéristiques intrinsèques (fitness), plafonnement de l’attachement préférentiel, coûts de connexion ou mécanismes de vieillissement des nœuds. Ces variantes conservent la logique fondamentale du modèle tout en la rendant plus réaliste.  (voir encadré).

Extensions du modèle de Barabási–Albert : vers des réseaux plus réalistes

Dès le début des années 2000, de nombreuses extensions ont été proposées au modèle Barabasi-Albert afin de mieux rendre compte de la diversité des réseaux observés dans le monde réel, tout en conservant la logique fondamentale du modèle.

1. Introduction de caractéristiques intrinsèques : les modèles à fitness

Idée générale
Dans le modèle de Barabási–Albert, tous les nœuds sont supposés équivalents au moment de leur apparition. Leur succès futur dépend uniquement de leur ancienneté et du nombre de liens déjà accumulés. Or, dans de nombreux contextes réels, certains nœuds possèdent des qualités intrinsèques qui les rendent plus attractifs que d’autres : qualité scientifique d’un article, pertinence d’un site web, talent d’un individu, etc. Les modèles à fitness introduisent cette hétérogénéité en attribuant à chaque nœud une capacité propre à attirer des connexions, indépendante de son âge.

Résultats majeurs16
Ces modèles montrent qu’un nœud apparu tardivement peut devenir central s’il possède une fitness élevée, que l’ancienneté n’est plus la seule source d’avantage cumulatif et que, dans certains cas extrêmes, un seul nœud peut capter une fraction dominante des liens du réseau (phénomène de « winner takes all »).

2. Limitation ou modification de l’attachement préférentielIdée générale.

Dans le modèle de Barabási–Albert, plus un nœud est connecté, plus il attire de nouvelles connexions, sans limite. Or, dans de nombreux réseaux réels, cette croissance peut être freinée par des contraintes cognitives ou organisationnelles, des limites techniques ou par des mécanismes institutionnels.

Principales variantes
Deux types de modifications ont été étudiés :
– l’introduction d’une attractivité minimale, garantissant que même les nœuds peu connectés puissent attirer des liens ;
– la modification de la manière dont la popularité influence l’attractivité, ce qui peut renforcer ou, au contraire, atténuer la domination des hubs.

Résultats principaux17 
Selon la variante considérée, les inégalités de connexions peuvent être réduites ou au contraire accentuées jusqu’à la domination quasi totale d’un petit nombre de nœuds ; la distribution des degrés peut s’écarter de la loi de puissance classique.

3. Coûts de connexion et contraintes de capacité

Idée générale
Dans les réseaux réels, créer ou maintenir une connexion a souvent un coût : temps, énergie, ressources financières, attention. Certains modèles introduisent explicitement ces coûts afin de limiter la croissance illimitée des hubs.

Effets observés18
L’introduction de coûts ralentit la concentration excessive des liens, favorise une structure plus équilibrée  et peut conduire à l’apparition de plusieurs hubs de taille intermédiaire plutôt qu’un petit nombre de super-hubs. Ces modèles sont particulièrement pertinents pour les réseaux économiques, biologiques ou sociau

4. Vieillissement des nœuds (aging)Idée générale.

Dans de nombreux réseaux, l’attractivité d’un nœud diminue avec le temps. Les articles scientifiques sont moins cités lorsqu’ils deviennent anciens, les technologies obsolètes perdent leur attractivité  et l’attention collective se déplace vers la nouveauté.
Les modèles avec vieillissement introduisent un mécanisme par lequel la capacité d’un nœud à attirer de nouveaux liens décroît au cours du temps.

Conséquences19
Ces modèles montrent que les hubs ont une durée de vie limitée, les structures de domination sont moins stables  et la dynamique du réseau devient plus proche des observations empiriques.

5. Fermeture triadique20 et formation de communautés

Idée générale

Le modèle de Barabási–Albert produit peu de triangles et donc peu de communautés locales, contrairement aux réseaux sociaux réels. Des modèles hybrides combinent l’attachement préférentiel avec une tendance à se connecter aux voisins de ses voisins, renforçant ainsi la cohésion locale.

Résultat21
On obtient des réseaux qui conservent une forte hétérogénéité des degrés, présentent un fort regroupement communautaire  et ressemblent davantage aux réseaux sociaux observés.

Conclusion 
Les extensions du modèle de Barabási–Albert permettent de mieux représenter les réseaux observés empiriquement mais que la logique de l’attachement préférentielle reste centrale pour expliquer l’avantage cumulatif .

5. Bulles financières, queues épaisses et dynamiques cumulatives

Dès les origines de la finance moderne, les trajectoires de prix des actifs ont été modélisés comme des mouvements browniens22 : une succession de variations aléatoires, indépendantes, de faible amplitude, dont la distribution est approximativement normale. Cette hypothèse, centrale dans la théorie financière classique (Bachelier, puis Black et Scholes), implique que les variations extrêmes sont rares, que les risques sont bien résumés par la variance, et que les crises majeures relèvent de l’exception.

Or, cette représentation est contredite de manière systématique par les données empiriques. Les séries temporelles de prix boursiers présentent des variations extrêmes beaucoup plus fréquentes que prévu, des épisodes de forte volatilité persistante, et des ruptures brutales caractéristiques des krachs et des bulles.
Autrement dit, les marchés financiers ne sont pas dominés par de petites fluctuations indépendantes, mais par des événements rares et massifs, analogues aux extrêmes observés dans les distributions de patrimoine, de succès ou de taille d’entreprise.

5.1 Benoît Mandelbrot et les queues épaisses en finance

C’est Benoît Mandelbrot, dès les années 1960, qui établit explicitement le lien entre finance et lois de puissance (voir encadré page 5). En étudiant les variations des prix du coton puis des actifs financiers, il montre que leur distribution suit des lois à queue lourde, incompatibles avec la loi normale. Les implications sont profondes : les grandes variations ne sont pas des anomalies, la variance peut être mal définie ou instable, et le risque systémique est structurel, non accidentel.
Les marchés financiers rejoignent ainsi la famille des systèmes dominés par des lois de puissance, où quelques événements concentrent une part disproportionnée de l’impact total — exactement comme quelques individus concentrent la richesse ou quelques œuvres concentrent l’attention.

Les études empiriques ultérieures23 ont largement montré que les séries de rendements d’actifs financiers sont des  distributions fortement non gaussiennes, à queues épaisses, aux dépendances temporelles fortes pour la volatilité, etc. Elles  montrent que ces propriétés communes à de nombreux marchés remettent en question les hypothèses classiques (marche aléatoire, normalité).

Les bulles financières24 peuvent être interprétées comme une forme dynamique extrême du succès cumulatif. Leur mécanisme repose sur une logique proche de celle décrite dans les chapitres précédents : une hausse initiale d’un cours attire l’attention, qui attire de nouveaux acheteurs, ce qui fait monter les prix. La hausse passée devient une justification de la hausse future.

Rappelons que dans le mouvement brownien, au contraire, les déplacements (ici les variations de cours) n’ont ni histoire ni mémoire : chaque déplacement est indépendant du précédent. Ce mécanisme proposé ici est donc radicalement différent puisqu’au contraire « le succès (une hausse de prix) y appelle le succès. Les anticipations deviennent auto-réalisatrices, et la dynamique se détache progressivement des fondamentaux économiques. 

Comme dans les réseaux scale-free, quelques actifs, secteurs ou narratifs deviennent des hubs financiers, concentrant flux de capitaux et attentes.

5.2 Auto-similarité, temporalité des crises et éclatement des bulles

Un autre point de contact fort avec les lois de puissance réside dans la structure temporelle des marchés. Les séries financières présentent une auto-similarité : les mêmes motifs statistiques apparaissent à différentes échelles de temps (minutes, jours, années). Cette propriété est caractéristique des processus fractals (voir §1.4), tels que les a étudiés Mandelbrot.

Cela explique pourquoi des mini-bulles et mini-krachs coexistent avec de grandes crises, les marchés semblent calmes pendant longtemps, puis basculent brutalement. Au total la fréquence des crises majeures est bien plus élevée que ne le prédit un modèle brownien. Les bulles ne sont donc pas des accidents isolés, mais des manifestations naturelles d’un système à dynamique non linéaire, dominé par des rétroactions positives.

Dans un cadre brownien ou d’équilibre général, une bulle éclatée devrait conduire à un retour rapide vers une valeur fondamentale. Or, empiriquement, les krachs sont brutaux, asymétriques et suivis de phases longues de réorganisation. Cette asymétrie est typique des systèmes à loi de puissance : la montée est graduelle et cumulative, la chute est rapide et collective.  Elle rappelle la dynamique des systèmes critiques ou la perte de connectivité dans les réseaux lorsque les hubs s’effondrent. 

Les marchés financiers apparaissent ainsi comme des systèmes hors équilibre, proches de la criticité, où l’instabilité est endogène.

6. L’industrie pharmaceutique

Dans l’industrie pharmaceutique, une petite minorité de médicaments génère une part disproportionnée des ventes totales, un schéma que l’on désigne sous le terme de “modèle blockbuster”25.

Historiquement, ce modèle a structuré la stratégie des grandes firmes : quelques produits à très fortes ventes couvrent les coûts immenses de recherche et développement et financent l’activité globale. Bien que les données détaillées par produit ne permettent pas toujours de tester formellement une loi de puissance au sens strict, la forte concentration observée — que ce soit avec des blockbusters classiques comme le Lipitor (nom commercial aux USA de l’atorvastatine, un “anticholestérol” ) ou des produits très largement prescrits comme le Doliprane — est cohérente avec des distributions très inégales similaires à celles observées dans d’autres industries de biens populaires.

Le succès d’un médicament résulte de l’interaction entre sa qualité intrinsèque et des dynamiques de rendements croissants. Dans le cas de l’imatinib, destiné à la leucémie myéloïde chronique, son efficacité exceptionnelle et sa spécificité scientifique ont favorisé une adoption rapide et quasi totale dès son introduction. Pour le Doliprane, le succès s’est construit plus progressivement : l’élargissement de ses indications et sa toxicité plus faible que celle de l’aspirine ont renforcé son adoption, soutenue par des mécanismes cumulés comme la confiance des patients et l’habitude des prescriptions. L’aspirine illustre quant à elle l’effet du repositionnement thérapeutique : à très faible dose, elle est aujourd’hui utilisée pour des indications qui étaient inconnues au moment de sa mise sur le marché, générant un regain d’intérêt et de prescriptions. Dans tous ces cas, ces mécanismes — qualité intrinsèque, adoption cumulative et repositionnement — produisent une concentration marquée de l’usage et de la notoriété, conformément à un schéma typique de loi de puissance : quelques médicaments captent l’essentiel des prescriptions, tandis que la majorité reste marginale.

7. De la concentration des réseaux à la formation des oligopoles

Dans l’analyse économique classique, l’oligopole est souvent présenté comme une structure de marché particulière, située entre la concurrence parfaite et le monopole. Il est généralement expliqué par des barrières à l’entrée, des économies d’échelle, ou des comportements stratégiques des firmes en place. Cette lecture ne rend pas pleinement compte de la régularité empirique avec laquelle les oligopoles apparaissent dans des secteurs très différents.

Si l’on considère les marchés comme des réseaux en croissance, dans lesquels les entreprises nouent des relations avec des clients, des fournisseurs, des partenaires ou des utilisateurs, alors l’oligopole peut être compris comme une structure émergente, résultant de dynamiques cumulatives plutôt que d’une stratégie concertée ou de collusions. Cette lecture ne disculpe pas les pratiques anticoncurrentielles lorsqu’elles existent, mais elle démontre que la structure du marché elle-même peut produire de la concentration, indépendamment des intentions des acteurs.

Dans ce cadre, les entreprises dominantes apparaissent comme des hubs économiques : elles concentrent les flux, l’information et l’attention, tandis qu’une multitude d’acteurs périphériques coexistent dans une longue traîne.

7.1 Attachement préférentiel et parts de marché

Appliqué aux marchés, le mécanisme d’attachement préférentiel est intuitif. Les entreprises déjà bien établies attirent plus facilement de nouveaux clients, car elles bénéficient d’une notoriété plus élevée, d’un réseau de distribution plus dense ou d’une base d’utilisateurs existante. Chaque nouveau client renforce leur position et accroît encore leur attractivité relative.

Ce processus est particulièrement puissant lorsque les choix des consommateurs sont influencés par des signaux sociaux : recommandations, classements, parts de marché visibles, effets de réputation. Dans ces conditions, la probabilité de choisir un acteur dépend non seulement de ses caractéristiques intrinsèques, mais aussi de sa position actuelle dans le réseau. La conséquence est une dynamique de concentration progressive, où quelques acteurs captent une part croissante du marché, sans qu’il soit nécessaire d’invoquer des comportements anticoncurrentiels explicites.

7.2 Rendements croissants et effets de réseau

Les rendements croissants jouent un rôle central dans cette dynamique. Lorsqu’une entreprise bénéficie d’économies d’échelle, le coût moyen diminue avec la taille, ce qui renforce l’avantage des acteurs déjà dominants. De même, les effets de réseau font que la valeur d’un produit ou d’un service augmente avec le nombre d’utilisateurs, comme c’est le cas pour les plateformes numériques, les systèmes de paiement ou les standards technologiques. Dans un tel contexte, l’attachement préférentiel est renforcé par des mécanismes économiques tangibles. Les nouveaux entrants ne se heurtent pas seulement à la notoriété des acteurs en place, mais aussi à des désavantages structurels. La concentration devient alors auto-entretenue.

Ces mécanismes expliquent pourquoi de nombreux marchés tendent vers des structures oligopolistiques stables, dominées par un petit nombre d’acteurs, tandis que la concurrence se joue essentiellement à la périphérie.

Cette lecture ne disculpe pas les pratiques anticoncurrentielles lorsqu’elles existent, mais elle rappelle que la structure du marché elle-même peut produire de la concentration, indépendamment des intentions des acteurs.

7.3 La  régulation  des oligopoles

Reconnaître le caractère structurel des oligopoles ne conduit pas au fatalisme. Les extensions du modèle de Barabási–Albert montrent que des mécanismes tels que les coûts, le vieillissement, la saturation ou la régulation peuvent modérer la concentration et favoriser le renouvellement des acteurs dominants.

La question centrale devient alors celle du design institutionnel : comment introduire des frictions, des limites ou des incitations qui préservent les bénéfices des réseaux tout en évitant une concentration excessive et durable ? Cette interrogation dépasse le cadre de cette note, mais elle souligne l’intérêt pratique d’une compréhension fine des dynamiques à l’œuvre.

8. La remise en cause de la théorie de l’équilibre général et de l’ efficience des marchés

La théorie de l’équilibre général, formalisée par Walras puis par Arrow et Debreu, repose sur un ensemble d’hypothèses fortes : agents atomistiques, interactions indirectes via les prix, rendements non croissants, information parfaitement diffusée et marchés complets. Dans ce cadre abstrait, et bien loin des réalités empiriques, l’économie converge vers un état d’équilibre unique, stable et efficient au sens de Pareto.

Cette construction repose en particulier  sur une vision très particulière de la structure des interactions économiques, implicitement lisse, homogène et faiblement hiérarchisée. L’introduction des lois de puissance et des structures en réseau, bien plus réalistes,  remet en cause profondément ces hypothèses, comme nous allons  le voir.

Dans de nombreux marchés réels — financiers, culturels, industriels — les agents ne sont ni équivalents ni interchangeables. Quelques acteurs concentrent parts de marché, information, liquidité ou attention. Ces configurations correspondent à des réseaux hautement hétérogènes, souvent de type scale-free, incompatibles avec l’hypothèse d’agents de taille négligeable. Dans ces systèmes, les interactions ne passent plus uniquement par les prix, mais par des liens directs : imitation, réputation, dépendance technologique, exposition financière. L’économie n’est plus un ensemble d’agents isolés coordonnés par un système de prix abstrait, mais un réseau d’interactions asymétriques. Concernant les prix eux-mêmes les entreprises dominantes sont des price  makers et les autres (la grande majorité des price takers.

Les lois de puissance émergent précisément lorsque le succès passé augmente la probabilité du succès futur. Effets de réseau, économies d’échelle dynamiques, visibilité cumulative introduisent des rendements croissants endogènes, explicitement exclus par hypothèse dans les modèles standards d’équilibre général. Dans les marchés financiers, la liquidité attire la liquidité ; dans les oligopoles, la taille attire la taille. Ces mécanismes produisent des dynamiques de concentration auto-renforcées qui éloignent structurellement le système de l’équilibre concurrentiel.

Lorsque les interactions sont non linéaires et les rendements croissants, l’unicité et la stabilité de l’équilibre ne sont plus garanties. Les systèmes peuvent présenter des équilibres multiples,  des transitions brutales et des phases d’instabilité persistante. La formation d’oligopoles comme celle des bulles financières vues au chapitre précédent apparaissent alors non comme des anomalies temporaires, mais comme des états dynamiques endogènes du système. L’équilibre cesse d’être un attracteur naturel et devient, au mieux, une configuration locale et transitoire.

Comme on l’a  vu, dans les systèmes dominés par des lois de puissance, la moyenne ne décrit plus le système. Une minorité d’acteurs ou d’événements détermine l’essentiel des résultats globaux. Or l’équilibre général repose sur des agrégations supposées représentatives des comportements microéconomiques et des comportements moyens, qui deviennent trompeurs lorsque les distributions sont dominées par leurs extrêmes. L’agent représentatif26, pilier implicite de nombreux raisonnements d’équilibre, perd toute pertinence analytique.

L’hypothèse d’efficience des marchés (Efficient Market Hypothesis, EMH), formalisée par Eugene Fama, affirme que les prix des actifs incorporent instantanément toute l’information disponible. Elle repose sur des hypothèses proches de celles de l’équilibre général : diffusion parfaite de l’information, agents rationnels, rendements distribués normalement, trajectoires assimilables à un mouvement brownien.

L’approche par les lois de puissance et les réseaux invalide cette hypothèse sur plusieurs plans fondamentaux. Dans un marché structuré en réseau, l’information ne se diffuse pas instantanément mais localement, le long de liens sociaux, institutionnels et technologiques. Certains acteurs jouent le rôle de hubs informationnels, générant délais, amplifications et contagions. Les rendements financiers présentent des queues épaisses : les événements extrêmes ne sont ni rares ni négligeables, mais structurants. Les prix dépendent de leur propre histoire : dans les modèles à attachement préférentiel, la performance passée accroît la probabilité de succès futur. Les bulles deviennent endogènes, non accidentelles.

Dans les systèmes en loi de puissance, l’instabilité n’est pas un dysfonctionnement temporaire, mais une propriété structurelle. Les marchés sont robustes aux petits chocs, mais fragiles aux perturbations touchant les acteurs centraux. Cette asymétrie est incompatible avec une vision d’équilibre informationnel global. Les lois de puissance et les réseaux remettent en cause fondamentalement  l’équilibre général ou l’efficience comme représentations plausibles de la réalité économique. Dans des économies dominées par l’hétérogénéité, l’histoire et les interactions directes, l’équilibre devient local, instable et contingent. L’économie apparaît fondamentalement hors équilibre.

Conclusion générale

Les lois de puissance montrent que la concentration, les hubs et la longue traîne sont la norme, pas l’exception. Elles rappellent que :

  • le succès est cumulatif et dépend des interactions, de l’histoire, mais aussi des qualités intrinsèques des éléments ou des acteurs ;
  • la concentration et les oligopoles peuvent émerger même sans comportements collusifs ;
  • les cadres classiques doivent être remplacés par des modèles dynamiques, de réseau et hors équilibre, capables de tenir compte à la fois de l’avantage cumulatif et des différences de “fitness” ou de valeur intrinsèque.

Cette perspective est particulièrement pertinente pour les marchés numériques, culturels, technologiques, pharmaceutiques…, où la visibilité, la prescription et les effets cumulatifs structurent la distribution des résultats. Elle invite à repenser la manière dont les ressources, l’attention, le succès économique et la diffusion des innovations se concentrent dans les systèmes modernes, en intégrant à la fois les mécanismes d’auto-renforcement et les qualités propres des produits ou des acteurs.

Alain Grandjean


NOTES

  1. En statistique , la queue ou traîne d’une loi de probabilité correspond à la portion éloignée de la « tête » ou valeur centrale de la loi. Le terme de longue traîne a été  popularisé par Benoit Mandelbrot pour un article publié en 1951. Voir l’article Longue traine sur wikipedia; et cet interview : The father of long trails ↩
  2.  La répartition 80/20 n’est bien sûr pas toujours précisément respectée. C’est une image ; ce qui est robuste c’est l’idée qu’une faible quantité d’éléments (ce peut être 5% ou 25%) ont une forte contribution (75% ou 95%). Les chiffres varient en fonction de l’exposant de la puissance de la loi. ↩
  3. Voir Cours d’économie politique. Vol. 1 / Vilfredo Pareto. – F. Rouge, 1896. ↩
  4. Voir l’article Loi de Zipf sur Wikipedia  et Zipf, G.K. (1935), The Psycho-Biology of Language, Cambridge: MIT Press. ↩
  5. Mandelbrot, B.B. (1960), “The Pareto-Levy law and the distribution of income,” Int. Economic Review, 1(2), 79–106. et Mandelbrot, B.B. (1963), The Variation of Certain Speculative Prices, Journal of Business, 36(4), 394–419. ↩
  6. La même idée a été exprimée en imaginant Bernard Arnault  rentrant dans un bar ce qui faisait exploser la moyenne des revenus (et des patrimoines) des présents. ↩
  7. Si l’exposant k est >1. ↩
  8. Ceci ne veut pas dire qu’il soit facile de prévoir lesquels ! ↩
  9. Selon Wikipedia “Le terme est dû au sociologue américain Robert King Merton qui, dans un article publié en 1988 cherche à expliquer comment les scientifiques et les universités les plus réputés maintiennent leur domination dans le domaine de la recherche. Cette appellation fait référence à une phrase de l’Evangile selon Matthieu : « Car on donnera à celui qui a, et il sera dans l’abondance, mais à celui qui n’a pas on ôtera même ce qu’il a ». Voir https://fr.wikipedia.org/wiki/Effet_Matthieu ↩
  10. En particulier l’ensemble des constatations faites ici sont inexplicables si l’on considère que l’ homo économicus est rationnel au sens de la théorie néoclassique. Mais nous savons bien que cette hypothèse de rationalité est infondée et sans rapport avec les réalités sociales bien mieux représentés par les modèles présentés ici. ↩
  11. L’information imparfaite désigne une situation où les acteurs économiques ou sociaux ne disposent pas de toutes les informations nécessaires pour prendre une décision optimale. L’information asymétrique est un cas particulier d’information imparfaite où certaines parties ont plus d’informations que d’autres (ex. : assureur vs assuré, vendeur vs acheteur). Voir Akerlof, G. A. (1970), The Market for « Lemons »: Quality Uncertainty and the Market Mechanism, Quarterly Journal of Economics, 84(3), 488–500. et  Stiglitz, J. E. (2000), Economics of the Public Sector, 3rd edition, Norton. ↩
  12. La rationalité limitée (ou bounded rationality en anglais) est un concept en économie et en sciences sociales proposé par Herbert A. Simon dans les années 1950. Il désigne l’idée que, dans la prise de décision, les individus essaient de prendre les meilleures décisions possibles compte tenu de leurs connaissances limitées, de leurs capacités cognitives et des contraintes de temps. Autrement dit, les acteurs ne peuvent pas toujours optimiser parfaitement leurs choix car Ils ne disposent pas de toutes les informations nécessaires, leur capacité de traitement de l’information est limitée et Ils doivent souvent prendre des décisions rapidement. Voir Herbert A. Simon (1955), A Behavioral Model of Rational Choice, Quarterly Journal of Economics, 69(1), 99–118. ↩
  13. Barabási, A.-L., & Albert, R. (1999), “Emergence of scaling in random networks, Science, 286, 509–512. ↩
  14. Voir également la page wikipédia à ce sujet. ↩
  15. La dépendance au sentier désigne le phénomène par lequel les décisions ou les résultats présents dépendent fortement des choix passés, même si ces choix initiaux ne sont plus optimaux aujourd’hui. Autrement dit : une fois qu’un processus, une technologie ou une institution a pris une certaine trajectoire, il devient difficile de changer de chemin, même si une meilleure alternative apparaît plus tard. Ce phénomène crée un effet de verrouillage (lock-in) : les acteurs restent « coincés » dans une trajectoire initiale. Une rigidité des systèmes : les systèmes sont moins flexibles et plus résistants au changement, même si des meilleures options existent. Et il  met en évidence  l’importance des choix initiaux : de petites décisions ou événements aléatoires peuvent avoir des conséquences majeures à long terme. Exemple classique : le clavier QWERTY , conçu pour ralentir la frappe mécanique, reste dominant malgré l’existence de dispositions plus efficaces. Voir Arthur, W. B. (1989), Competing Technologies, Increasing Returns, and Lock-In by Historical Events, The Economic Journal, 99(394), 116–131. ↩
  16. Voir Ginestra Bianconi & Albert-László Barabási (2001),  Competition and multiscaling in evolving networks, Physical Review Letters et Guido Caldarelli et al. (2002)  Scale-Free Networks from Varying Vertex Intrinsic Fitness, Physical Review Letters. ↩
  17. Voir S. N. Dorogovtsev, J. F. F. Mendes & A. N. Samukhin (2000)
    Structure of Growing Networks with Preferential Linking, Physical Review Letters. et P. L. Krapivsky, S. Redner & F. Leyvraz (2000), Connectivity of Growing Random Networks, Physical Review Letters. ↩
  18. Voir Maral et al. (2000), Classes of Small-World Networks, Proceedings of the National Academy of Sciences. ↩
  19. Voir Dorogovtsev & Mendes (2000) 
    Evolution of Networks with Aging of Sites, Physical Review E.  et Eom & Fortunato (2011)
    Characterizing and Modeling Citation Dynamics, Physical Review E. Voir également https://en.wikipedia.org/wiki/Triadic_closure ↩
  20. La fermeture triadique est la propriété, en théorie des réseaux sociaux, selon laquelle s’il existe des liens forts entre deux individus et entre l’un de ces individus et un troisième individu, alors il existe également un lien (fort ou faible) entre le premier et le troisième individu. ↩
  21. Voir Petter Holme & Beom Jun Kim (2002)  Growing Scale-Free Networks with Tunable Clustering, Physical Review E. ↩
  22. Louis Bachelier est le père des mathématiques financières. Il a eu l’idée d’utiliser en finance le mouvement brownien. Pour comprendre les limites de cette représentation voir le petit livre très éclairant de Michel de Pracontal et Christian Walter Le virus B , Crises financières et mathématiques. Le B est l’initial de Brownien… ↩
  23. Voir par exemple R. Cont Empirical properties of asset returns: stylized facts and statistical issues. Quantitative Finance, 2001, vol. 1, issue 2, 223-236 . Cet article présente et synthétise les “faits stylisés” observés empiriquement dans les séries de rendements d’actifs financiers. ↩
  24. Voir par exemple dans son  livre, Sornette, D. (2003), Why Stock Markets Crash Critical Events in Complex Financial Systems, Didier Sornette applique la théorie des systèmes complexes pour expliquer que les krachs boursiers ne sont pas des événements totalement aléatoires mais résultent d’une instabilité endogène liée à la formation de bulles spéculatives par imitation et rétroactions positives entre investisseurs. Sornette argue que, comme dans les phénomènes physiques critiques, les marchés peuvent montrer des signaux précurseurs caractéristiques avant un effondrement (par exemple des lois de puissance avec log‑périodicité) et que ces signaux peuvent parfois être utilisés pour anticiper une crise. ↩
  25. Voir par exemple cet article de Philippe Abecassis et Nathalie Coutinet. Médicaments génériques : pivot de la reconstruction de l’industrie pharmaceutique ↩
  26. Un agent représentatif est, en science économique, un agent économique considéré comme moyen; La plupart des modèles macroéconomiques  sont aujourd’hui caractérisés par un problème d’optimisation  utilisant l’hypothèse d’agent représentatif pour le consommateur ou le producteur. Les courbes d’offre et de demande de ces agents sont ensuite interprétées comme étant l’offre et la demande agrégées de ces deux types d’agents.économique. ↩

The post Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie  appeared first on Chroniques de l'Anthropocène.

PDF
6 / 10
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Christophe LEBOUCHER
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Fake Tech (C. LEBOUCHER)
Romain LECLAIRE
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Blogs Mediapart
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌓