18.02.2026 à 11:10
Alain Grandjean
Comme on l’a vu dans un post précédent portant notamment sur la loi de Pareto, dans de nombreux systèmes — réseaux, marchés financiers, concentration de richesse, catastrophes naturelles — la distribution des données ou des événements n’obéit pas une loi statistique ”normale”. La probabilité de valeurs extrêmes diminue beaucoup plus lentement que dans une telle […]
The post Tipping points, lois de puissance et économie climatique appeared first on Chroniques de l'Anthropocène.
Comme on l’a vu dans un post précédent portant notamment sur la loi de Pareto, dans de nombreux systèmes — réseaux, marchés financiers, concentration de richesse, catastrophes naturelles — la distribution des données ou des événements n’obéit pas une loi statistique ”normale”. La probabilité de valeurs extrêmes diminue beaucoup plus lentement que dans une telle loi. C’est le cas des extrêmes climatiques1 qui peuvent provoquer des dommages globaux irréversibles, menaçant des infrastructures, des écosystèmes, voire la survie humaine.
Nous allons voir que ces constatations remettent fondamentalement en cause l’approche généralement employée par les économistes pour tenter d’évaluer l’effort à faire pour limiter le dérèglement climatique. Elles conduisent à une approche renouvelée, fondée sur la notion de robustesse.
Ce post a été inspiré par des échanges avec Nathanaël Wallenhorst et la lecture de son livre 2049, avec Jean-Pierre Gonguet et François Lévêque, que je remercie chaleureusement. Leur responsabilité n’est en rien engagée dans les phrases qui suivent.
Les économistes, depuis les travaux précurseurs du “prix Nobel” William Nordhaus, essaient d’apprécier le coût de l’inaction (c’est-à-dire celui des dommages climatiques engendrés par les gaz à effet de serre, dans un scénario de prolongation des tendances, dit Business As Usual) et celui de l’action (le coût macroéconomique des mesures à prendre). Cette approche dite “analyse coûts-bénéfices (ou ACB)”2 leur permet d’en déduire un “optimum” (n’agir ni trop ni trop peu) qu’ils caractérisent en général par un “coût social du carbone”, que nous définirons plus loin.
Cette approche est marquée du sceau apparent du bon sens. On ne peut pas du jour au lendemain arrêter toutes les activités humaines (qui sont toutes génératrices de gaz à effet de serre) ni les remplacer par des activités neutres ou faiblement émettrices en carbone. Nous devons faire des choix collectifs de mitigation raisonnée en choisissant les actions les plus efficaces à moindre coût.
Ceci étant dit, les difficultés de l’exercice sont immenses. Nous n’en citerons que quelques-unes (voir la fiche The Other Economy sur les liens entre réchauffement climatique et croissance du PIB, plus exhaustive sur ces méthodes). Comment évaluer des dommages complexes et interdépendants à un horizon lointains ?
Nous reviendrons ici sur cette première question. Notons à ce stade que les économistes utilisent des fonctions de dommage3 qui relient la température moyenne planétaire au PIB ou au capital économique. Comment comparer les unités économiques de demain et celles d’aujourd’hui ? La méthode habituellement retenue consistant à retenir un taux d’actualisation pose de nombreux problèmes et repose en fait sur des choix éthiques et politiques. Comment répartir équitablement les efforts entre pays en intégrant un principe de responsabilités différenciées ? Comment répartir les efforts de mitigation dans la durée, sachant que certaines technologies progressent et qu’il peut être utile d’attendre qu’elles soient compétitives et qu’il existe par ailleurs des risques de verrouillage dans des technologies carbonées ? Peut-on représenter l’économie dans son ensemble par un “agent représentatif”4 ?
L’analyse coûts-bénéfices a des limites, qui semblent largement dépassées pour apporter une solution rationnelle à la question posée.
Mais nous allons ici oublier provisoirement la majorité de ces difficultés pour nous concentrer sur un problème de principe qui nous semble essentiel (évoqué dans la fiche citée plus haut), lié au caractère non-linéaire des impacts du climat, en particulier du fait de l’existence de ”points de bascule” et du risque de catastrophe majeure. Nous allons voir que ce constat, mis en évidence par l’économiste Martin Weitzman dès 20095, conduit à adopter des approches entièrement nouvelles, qu’on peut qualifier de robustes, par opposition aux approches d’optimisation qui caractérisent l’ ACB.
Le système climatique n’est pas un système linéaire répondant proportionnellement aux forçages6 externes. Il s’agit d’un système dynamique complexe, composé de sous-systèmes couplés (océan, atmosphère, cryosphère, biosphère) présentant des rétroactions positives, des seuils critiques et des transitions abruptes. Cette architecture implique que de petites variations continues des paramètres de contrôle — concentration de CO₂, flux d’eau douce, albédo — peuvent provoquer des changements qualitatifs majeurs de l’état du système.
Ces phénomènes sont aujourd’hui regroupés sous le terme de points de bascule climatiques (climate tipping points7). Un point de bascule n’est pas un choc qui bouleverse le système,
c’est un moment où le système perd sa capacité à revenir à son état habituel. Il est en général défini comme un seuil qui, lorsqu’il est franchi, entraîne de grands changements, souvent irréversibles à l’échelle humaine, qui modifient qualitativement l’état ou l’évolution du système Terre. Pour mieux comprendre ce dont il est question, on peut se représenter un sous-système climatique, une calotte glaciaire ou une circulation océanique, comme une bille évoluant sur un “paysage de stabilité”. Tant que le climat reste dans une “vallée” de ce paysage, une perturbation (année chaude, sécheresse, apport d’eau douce) déplace le système mais il revient vers son état antérieur : c’est un état stable ; au sommet d’une crête, la moindre perturbation l’en fait basculer durablement : c’est un état instable.
Parmi les exemples les plus étudiés – dont les probabilités à ce stade sont cependant différentes – on peut citer entre autres8 :
Des travaux récents montrent que plusieurs de ces éléments pourraient être plus proches de leur seuil critique qu’on ne le pensait auparavant, et que des interactions entre points de bascule peuvent produire des effets en cascade, amplifiant le risque systémique.9
Sur le plan mathématique, ces phénomènes relèvent de la théorie des systèmes dynamiques non linéaires, et plus précisément de la théorie des bifurcations.10 Une bifurcation correspond à une modification qualitative du comportement d’un système lorsque l’un de ses paramètres varie : disparition ou apparition d’états stables, changement de régime, hystérésis.
| Points de bascule climatiques : l’exemple de la bifurcation selle–nœud Les points de bascule climatiques peuvent être formalisés mathématiquement, grâce à la théorie des bifurcations. Parmi les différents types de bifurcations possibles11, la bifurcation selle–nœud constitue le schéma mathématique le plus simple pour représenter un basculement irréversible du système climatique. C’est pourquoi elle occupe une place centrale dans la littérature sur les tipping points et nous allons la présenter ici à titre pédagogique, pour en tirer une leçon économique. La bifurcation selle–nœud s’écrit mathématiquement ainsi : Où x est une variable d’état du système (par exemple l’intensité d’une circulation océanique, l’étendue d’une calotte glaciaire ou un indicateur agrégé de stabilité climatique) et μ un paramètre de contrôle lentement variable (forçage radiatif, température moyenne globale, apport d’eau douce, etc.). Le système se comporte différemment selon le signe de μ. – Si μ>0 , le système possède deux points fixes : * Un état stable (nœud) : si la variable d’état x atteint ce point de petites perturbations ne lui font pas quitter cet état. * Un état instable (selle) : où de petites perturbations suffisent à lui faire quitter cette position – Lorsque μ=0 les deux points fixes fusionnent : le système devient structurellement instable. – Si μ<0 il n’existe plus aucun état d’équilibre : l’état stable a disparu. Dans un processus conduisant à une bifurcation selle–nœud, le paramètre μ diminue. La “vallée” correspondant à l’état climatique stable et la “crête” instable voisine se rapprochent à mesure que le réchauffement progresse, jusqu’à disparaître ensemble. Au-delà de ce point de bascule, l’état climatique antérieur n’existe plus : même si le forçage cesse d’augmenter, le système évolue irréversiblement vers un nouveau régime. Applications climatiques : points de non-retour et irréversibilité La bifurcation selle–nœud est le schéma standard utilisé pour modéliser des points de bascule irréversibles dans le système climatique, notamment l’effondrement de la circulation méridienne de retournement de l’Atlantique (AMOC) et la perte irréversible de grandes calottes glaciaires. Dans ces cas, le système ne devient pas progressivement plus instable : il cesse soudainement d’avoir un état stable. Cette propriété est cruciale pour l’analyse économique du risque climatique car elle invalide toute extrapolation marginale des dommages. |
Un élément essentiel mis en évidence par la littérature récente est que ces transitions peuvent être déclenchées non seulement par le franchissement lent d’un seuil (bifurcation-induced tipping), mais aussi par du bruit (au sens statistique) « noise-induced tipping” ou par la vitesse du changement des paramètres (rate-induced tipping), ce qui complique encore l’anticipation et la gestion du risque.12
Ces propriétés suffisent à invalider l’idée selon laquelle les impacts climatiques seraient bien approximés par des fonctions de dommages lisses et convexes, généralement utilisées dans les modèles. Elles supposent en effet une relation continue et croissante des dommages économiques avec l’aggravation du changement climatique, sans sauts ni transitions abruptes, ce qui est contraire aux remarques faites ici.
Les non-linéarités dynamiques du système climatique ont une conséquence directe sur la structure statistique des événements extrêmes. En effet, à mesure qu’un sous-système climatique approche d’un seuil critique — par exemple l’affaiblissement de la circulation méridienne de retournement de l’Atlantique (AMOC), la déstabilisation d’une calotte glaciaire ou la perte saisonnière de la banquise arctique — sa résilience diminue. Les mécanismes de rétroaction positive (glace-albédo, stratification océanique, rétroactions hydrologiques ou biosphériques) amplifient alors les perturbations. Il en résulte une augmentation de la variance13, un ralentissement du retour à l’équilibre et un allongement des corrélations temporelles (critical slowing down14). Les fluctuations ne sont plus symétriques autour d’un état moyen, mais deviennent de plus en plus biaisées vers des “excursions” extrêmes.
Statistiquement, cette dynamique se traduit par des distributions fortement asymétriques, dont les queues décroissent lentement : les événements rares mais très intenses — vagues de chaleur exceptionnelles, précipitations extrêmes, sécheresses prolongées ou ruptures abruptes de régimes climatiques — acquièrent une probabilité disproportionnée par rapport à une distribution gaussienne. Ces extrêmes sont alors bien décrits par des distributions de valeurs extrêmes généralisées (GEV en anglais)15 à paramètre de forme positif, ou par des lois à queue épaisse de type puissance.
De nombreuses études empiriques récentes confirment que les distributions des événements climatiques extrêmes — vagues de chaleur, précipitations intenses, crues, sécheresses — présentent des queues lourdes, souvent bien décrites par des lois de Pareto ou des GEV. Par exemple, des analyses hydrologiques récentes montrent que les pics de crue suivent des distributions à longue traîne, impliquant une probabilité non négligeable d’événements très au-delà des niveaux historiquement observés.16 Des résultats similaires ont été obtenus pour les extrêmes de précipitations à haute résolution, où des analyses de maxima horaires issus d’un grand ensemble de modèles climatiques régionaux montrent que la fréquence et l’intensité des pluies extrêmes courtes durées augmentent de manière significative avec le réchauffement, suggérant des distributions à queue lourde pour ces événements rares.17
Ces distributions ne sont pas de simples artefacts statistiques : elles reflètent la structure physique sous-jacente du système, marquée par l’hétérogénéité spatiale, les rétroactions positives et la multiplicité des régimes dynamiques. Dans un tel contexte, la probabilité d’événements extrêmes décroît lentement selon une loi de puissance.
Ces constats ont des implications majeures. Il signifie que certaines trajectoires de réchauffement ou de perturbation climatique, même faiblement probables, peuvent entraîner des dommages globaux irréversibles, affectant les infrastructures, les écosystèmes, la stabilité économique et, dans les cas extrêmes, l’habitabilité de la planète. Dans un tel cadre, raisonner en termes d’impact moyen ou de dommage marginal devient trompeur. Ainsi, les queues épaisses ne sont pas un détail statistique secondaire, mais l’expression probabiliste des non-linéarités physiques du système climatique.
L’analyse coûts-bénéfices que nous avons évoquée en introduction se résume, dans la recherche économique classique sur le climat, par le concept central de coût social du carbone (CSC, en anglais SCC, Social Cost of Carbon). Il s’agit du coût économique actualisé (voir la fiche actualisation de The Other Economy) généré par l’émission d’une tonne supplémentaire de CO₂, intégrant l’ensemble des impacts du climat sur l’économie. La ”consigne” économique qui en découle c’est qu’il est souhaitable de réduire les émissions de CO2 aujourd’hui tant que le coût de cette réduction est inférieur au CSC et que cela ne l’est plus quand il supérieur. Calculé à partir de modèles intégrés climat-économie, le CSC est supposé guider la politique publique : il sert de base à la fixation de taxes carbone ou de quotas d’émissions, en traduisant les “externalités climatiques” en signaux monétaires exploitables par le marché. De nombreuses évaluations de ce CSC ont été faites dans les dernière décennies.18 Elles varient de deux ordres de grandeur (de quelques dizaines de dollars par tonne de CO2 à plus de 1000 dollars), ce qui montre bien le niveau d’incertitude théorique et pratique autour de ces questions.
Formellement, dans ces modèles, on cherche à maximiser l’utilité espérée inter temporelle de la consommation mondiale :

où Ct est la consommation globale à l’année t, β le facteur d’actualisation, et U la fonction d’utilité. et E l’espérance mathématique, étant entendu qu’il s’agit d’un calcul statistique. Le CSC correspond alors à la dérivée marginale de cette utilité par rapport aux émissions : de combien la consommation future sera affectée demain quand on évite une tonne de CO₂ aujourd’hui.

Cependant, comme l’a souligné très tôt19, l’économiste Martin Weitzman20, ce calcul repose sur des hypothèses cruciales : les dommages climatiques doivent être bornés, et les probabilités d’événements extrêmes doivent décroître rapidement. Si ces conditions ne sont pas respectées et que certains événements sont irréversibles — le CSC devient infini. En d’autres termes, l’approche classique n’est pas conçue pour traiter correctement les risques catastrophiques, et la logique marginale de prix échoue lorsque l’enjeu est la survie ou la catastrophe globale.
Martin Weitzman a d’ailleurs forgé un théorème21 qu’il a qualifié lui-même de lugubre car sans solution pratique à ses yeux. Son théorème démontre l’impossibilité devant l’incertitude des queues épaisses de recourir au calcul standard de l’espérance mathématique des pertes. Or nous venons de voir précédemment que, les événements extrêmes climatiques n’étaient non seulement pas à exclure mais que leur probabilité ne décroissait pas rapidement.
Pour répondre à cette critique fondamentale, les économistes modélisant les effets du dérèglement climatique sur l’économie ont recours dans leurs modèles à un « backstop » explicite ou implicite, technologique ou non (voir encadré ci-dessous).
Il s’agit de dispositifs futurs, quasi inépuisables et accessibles au plan économique qui seraient capables de résoudre le problème climatique même si la transition actuelle tarde ou déraille. Dans les modèles intégrés classiques la hausse des coûts marginaux de réduction des émissions éventuelles est ainsi toujours limitée.
| La nécessité de backstop dans les systèmes complexes et en économie du climat Un backstop22 est un mécanisme de dernier recours qui ne fonctionne qu’en cas de crise et assure la stabilité d’un système lorsque ses règles ordinaires échouent. Dans les systèmes techniques (réseaux électriques, réacteurs nucléaires, structures mécaniques), financiers ou informatiques, il se traduit par des réserves, redondances ou marges de sécurité qui empêchent des défaillances locales de se propager en effondrement systémique. La leçon est générale : tout système complexe reposant sur la coordination et la confiance est fragile sans backstop, et un système optimisé sans marge de sécurité devient cassant. En économie du climat, la notion de backstop prend un sens similaire. Certains modèles tiennent compte (voir partie 7) du recours éventuel à un backstop technologique, un substitut énergétique zéro-carbone, disponible en quantité illimitée à un coût exogène élevé mais décroissant dans le temps. Cette hypothèse borne les coûts d’abattement suffisamment pour éviter la divergence du CSC. D’autres, comme on le verra, procèdent d‘une manière plus sophistiquée, qui conduit au même résultat. On comprend vite que ces approches reposent plus sur des hypothèses ad hoc que sur des certitudes avérées ; or ce qui est en jeu est existentiel : c’est l’habitabilité de la planète. On verra en partie 8 que de nouvelles approches sont à considérer pour tenir compte de manière plus solide du théorème sinistre de Weitzman. |
Le modèle DICE – le plus important, à la fois comme référence historique et parce qu’il est toujours utilisé, par Nordhaus et d’autres économistes, dans diverses versions – fait appel à un backstop technologique. Ce “backstop miracle” est séduisant parce qu’il permet de penser que les innovations technologiques – énergie propre, capture du carbone, réseaux intelligents – viendront à bout du problème sans remettre fondamentalement en cause nos modes de production et de consommation. Il repose sur la croyance que l’innovation fera ce que la réglementation ou la transformation sociale seule ne peuvent pas faire. Il va de soi que l’introduction de ce backstop rend inutile la discussion sur les risques majeurs et leur incertitude. Malheureusement il s’agit d’une grave illusion.
Plusieurs raisons montrent que ce pari est loin d’être assuré :
Les technologies souvent citées comme promesses de backstop – comme la capture et séquestration directe du carbone, la géo ingénierie, la fusion nucléaire – sont loin d’être au point, ni au plan technique ni au plan économique, et ne sont pas exemptes d’effets secondaires encore mal connus et difficiles à prévoir. Leur efficacité réelle à l’échelle globale reste plus qu’incertaine. Dans certains cas (comme la capture directe du carbone de l’air, DAC) certaines limites sont physiques et liées aux lois de la thermodynamique. Dans d’autres cas, les limites physiques sont relatives aux matériaux critiques. Aucun backstop ne peut annuler ces contraintes physiques.
6.2 Aucun déploiement à grande échelle d’une solution technologique n’est instantané
A supposer qu’une technologie se dégage, elle supposera de construire des infrastructures – qu’il s’agisse d’énergie nucléaire décarbonée, de réseaux de capture et de stockage du carbone, ou de technologies encore émergentes – ce qui prendra des décennies. Cela contraste avec la rapidité à laquelle les tipping points climatiques peuvent produire des effets irréversibles.
Contrairement à un prêteur en dernier ressort qui peut injecter de la liquidité rapidement, aucune technologie ne se déploie à la vitesse d’un signal monétaire.
L’histoire des technologies d’efficacité montre qu’elles peuvent engendrer un effet rebond, où les gains d’efficacité conduisent à plus de consommation plutôt qu’à moins d’émissions nettes, réduisant l’effet attendu de la technologie.
Penser que les innovations technologiques viendront à temps peut aussi conduire à reporter les efforts immédiats de réduction des émissions. C’est l’effet “mitigation deterrence” (dissuasion de la mitigation) : la croyance en la possible efficacité d’options technologiques – non prouvées à ce jour- peut conduire à limiter l’ambition. Cela concerne la géo ingénierie, les technologies d’émissions négatives (captage et stockage du CO₂, DAC, BECCS) et même l’adaptation au changement climatique : investir dans l’adaptation (digues, climatisation, agriculture résistante, etc.) pourrait faire oublier la mitigation.
Les ACB appliquées au changement climatique reposent principalement sur un noyau restreint de modèles d’évaluation intégrée (Integrated Assessment Models, IAMs23), qui combinent dynamique économique, trajectoires d’émissions et réponse climatique afin d’estimer le coût social du carbone, y compris dans des scénarios de réchauffement élevé. Les trois modèles de référence dans ce cadre sont DICE, FUND et PAGE, qui apportent des réponses distinctes, explicites ou implicites, aux difficultés soulevées par Weitzman concernant les risques catastrophiques et les queues épaisses, et qui mettent en évidence le lien crucial entre réduction des émissions et limitation des dommages.
Le modèle DICE24, élaboré par William Nordhaus, traite la question de la faisabilité et de la non-divergence en introduisant explicitement une technologie de backstop. Celle-ci représente un substitut énergétique zéro-carbone, disponible en quantité illimitée à un coût exogène élevé mais décroissant dans le temps. Ce backstop n’est pas décrit physiquement mais joue un rôle central. En réduisant suffisamment tôt les émissions, DICE limite la hausse de température et, par conséquent, les dommages climatiques et leur coût. Ainsi, le backstop technologique agit non seulement comme un mécanisme de dernier recours pour les coûts d’atténuation, mais aussi comme un backstop dynamique qui empêche les dommages de devenir excessifs ou infinis, maintenant le CSC dans une plage finie et calculable.
Le modèle FUND, élaboré par Richard Tol adopte une approche plus indirecte. Il ne représente pas explicitement une technologie de dernier recours, mais introduit les coûts d’abattement via des fonctions de coût réduites, calibrées à partir de la littérature technico-économique. Ces fonctions imposent de facto une limite à la hausse du coût marginal d’abattement et, en agissant suffisamment tôt sur les émissions, permettent de prévenir une augmentation excessive de la température et des dommages associés. Le backstop est donc implicite : il résulte des hypothèses fonctionnelles retenues et de la limitation des dommages par la régulation des émissions, plutôt que de la modélisation explicite d’une technologie sans carbone. Ce mécanisme intégré permet d’éviter toute explosion des coûts ou du CSC, tout en conservant une logique ACB standard.
Le modèle PAGE25 développé par Chris Hope se distingue par sa réponse probabiliste aux risques extrêmes. PAGE ne recourt ni à un backstop technologique explicite, ni à un plafond direct des coûts d’abattement. La non-divergence du CSC est assurée par un ensemble d’hypothèses structurelles : des dommages climatiques explicitement bornés (en fraction du PIB), des distributions de probabilité tronquées pour les paramètres climatiques et économiques, des catastrophes modélisées comme des chocs discrets de taille finie, un horizon temporel limité et un taux d’actualisation positif mais faible. Dans ce cadre, limiter les émissions à temps agit comme un backstop dynamique : en réduisant la probabilité et l’ampleur des événements catastrophiques, la politique d’abattement précoce empêche les dommages de diverger et maintient le CSC calculable. PAGE reconnaît ainsi les incertitudes et les queues épaisses, mais les intègre dans un cadre probabiliste qui exclut par construction les pertes infinies.
En résumé, alors que DICE répond à l’argument de Weitzman par une borne technologique explicite, FUND par des bornes implicites sur les coûts et la régulation précoce des émissions, et PAGE par des bornes probabilistes sur les dommages et un mécanisme de limitation dynamique des risques catastrophiques. Les trois modèles conservent une logique ACB standard. Tous sont construits pour que le CSC reste fini. C’est ce qui explique également pourquoi ces modèles n’impliquent pas nécessairement des politiques climatiques “robustes” fondées sur des interdictions ou des contraintes absolues, mais plutôt des instruments graduels de type prix du carbone, même dans des scénarios de réchauffement élevé.
C’est ici qu’interviennent les approches dites robustes. 26
Plutôt que d’optimiser une espérance d’utilité calculée sur un scénario probabilisé, ces méthodes cherchent à protéger le système contre les pires scénarios plausibles. La formulation générale du problème à résoudre peut s’écrire mathématiquement ainsi :

Où P est un ensemble de distributions plausibles et admissibles (non comprises donc celles qui conduisent à un scénario climatique inacceptable). L’objectif est de choisir la meilleure politique P parmi un ensemble P de politiques admissibles. Il s’agit de maximiser au sein de ces politiques, l’espérance de l’utilité minimale de chacun des scénarios.
Pour chaque politique P, les conséquences économiques et climatiques futures sont incertaines et représentées par une distribution probabiliste. La somme

représente le bien-être cumulatif actualisé, où U(Ct) est la fonction d’utilité de la consommation à chaque période t et βt le facteur d’actualisation. Ce mécanisme actualise le futur, donnant moins de poids aux périodes lointaines, mais en considérant un horizon infini, on prend en compte l’ensemble des conséquences à long terme.
Le terme

correspond à l’espérance sous cette distribution, et la présence du min traduit que l’on considère le scénario le plus défavorable. Cette structure reflète une logique de prudence maximale, proche de l’argument de Weitzman sur les queues épaisses et les risques climatiques extrêmes.
L’interprétation économique de l’approche robuste est que la politique optimale doit maximiser le bien-être social dans le pire scénario plausible. Elle formalise ainsi un choix de politique fondé sur la prudence face à l’incertitude profonde, en intégrant explicitement les risques extrêmes et le long terme, tout en conservant une logique économique d’allocation des ressources. Cette formulation mathématique du principe de précaution étendue relie directement émissions, dommages et bien-être futur.
Dans ce cadre, souvent qualifié de Robust Decision Making (RDM), le coût social du carbone n’est plus un simple coût marginal : il devient conditionnel au respect d’une zone sûre, excluant les trajectoires conduisant à une ruine globale. À mesure que l’on s’approche d’une frontière catastrophique, le coût marginal croît fortement, ce qui justifie l’introduction de contraintes, de normes, voire d’interdictions ciblées sur certaines activités à forte intensité carbone. Le CSC conserve un rôle d’arbitrage à l’intérieur de cette zone sûre, mais cesse d’être l’instrument central de gestion du risque existentiel.
8.2 Approches robustes “élargies”
Ces approches robustes ne se limitent pas fondamentalement à l’usage “encadré” de l’analyse coûts-bénéfices, tel qu’on vient de le voir. Elles englobent l’approche du type de celle qui a été proposée par une équipe du FMI et que nous avons présentée dans ce blog dans un article intitulé La Nature au cœur du raisonnement économique : l’émergence d’une nouvelle macroéconomie. Il s’agit de sortir de la logique d’optimisation27 et de se préoccuper prioritairement de la capacité de nos systèmes socio-économiques à résister face aux fluctuations à venir.
Conclusion
Les lois de puissance s’appliquent aussi aux catastrophes climatiques. L’économie classique du climat et les modèles utilisés sont inadaptés car ils appliquent des hypothèses de bornes (éventuellement via l’introduction d’un backstop hypothétique) et de lois de probabilités “normales” aux queues fines.
Les approches robustes permettent de combiner prudence (interdictions, normes, planification) pour éviter la catastrophe, et raisonnement économique. Dans un monde à queues épaisses et longues traînes, le rare peut dominer la moyenne. Comme dans la finance, il faut prévoir le pire et assurer le maintien de l’habitabilité pour les humains de notre planète.
Alain Grandjean
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎Image : Venezia, Veneto, Italia – Giovanni – Pexels – libre de droits
The post Tipping points, lois de puissance et économie climatique appeared first on Chroniques de l'Anthropocène.
11.02.2026 à 09:31
Alain Grandjean
Les banques centrales ont plusieurs fonctions (voir la fiche sur l’indépendance de la banque centrale). Nous allons ici traiter de celle de prêteur en dernier ressort (Lender of last resort,…
The post Crises bancaires et financières : le rôle du prêteur en dernier ressort appeared first on Chroniques de l'Anthropocène.
Les banques centrales ont plusieurs fonctions (voir la fiche sur l’indépendance de la banque centrale). Nous allons ici traiter de celle de prêteur en dernier ressort (Lender of last resort, LOLR). Elle consiste principalement à fournir rapidement de la liquidité aux banques ou institutions financières solvables mais temporairement en risque « d’illiquidité », afin d’éviter que des retraits massifs ou des paniques bancaires ne provoquent l’effondrement du système financier. On se souvient du célèbre mot de Mario Draghi “Whatever it takes” en 2012 pour mettre fin à la crise qui menaçait la zone euro dans son ensemble. Comme l’écrit un journaliste des Echos : “Si, dans un premier temps, les mots suffisent, la BCE va rapidement prendre une mesure importante. La création de l’OMT1 mécanisme destiné à racheter de façon illimitée des titres de dette de pays en difficulté. Il ne sera jamais activé, mais le fait que la BCE devienne prêteur en dernier ressort suffit à protéger durablement les pays périphériques”.
Le LOLR vise à préserver la stabilité du système de paiement, maintenir la confiance dans la monnaie et limiter la contagion entre institutions, sans garantir la solvabilité des banques ou autres acteurs financiers défaillants. Ce rôle peut être soit codifié explicitement dans la loi (Banque du Canada, Riksbank), soit exercé comme fonction implicite (Fed, BCE2). Dans tous les cas, ce qui définit un LOLR c’est la capacité à fournir rapidement de la liquidité aux banques solvables en crise pour protéger la stabilité financière et la confiance dans la monnaie.
Nous allons voir dans la suite pourquoi les systèmes monétaires et financiers modernes ne peuvent se passer de cette fonction, sans avoir besoin d’exposer une théorie d’ensemble des crises financières et de leur variété. Nous ne traiterons pas ici des cas (rares) où la monnaie s’effondre du fait d’une hyperinflation (Allemagne de Weimar en 1923, effondrement du peso argentin en 2001, crise de la livre libanaise en 2019, etc.). La résolution de ces crises majeures ne relève pas du LOLR. Les crises de liquidité associées aux paniques bancaires seront qualifiées dans la suite de crises bancaires ou financières, même si elles affectent le fonctionnement des paiements donc la monnaie.
Les crises financières jalonnent l’histoire du capitalisme moderne3. Paniques bancaires du XIXᵉ siècle, crise de 1929, crise financière mondiale de 2008, crises de change, tensions sur les marchés en 20204 ou plus récemment effondrements de certaines “monnaies” numériques5. Cette répétition montre que les crises ne sont ni des accidents isolés ni des anomalies historiques, mais des phénomènes structurels. Pourtant, le récit dominant tend encore à expliquer les crises par des causes extérieures au système économique lui-même : un choc exogène, une erreur de politique, un événement exceptionnel. Cette lecture est liée à la théorie de l’équilibre général, selon laquelle l’économie serait fondamentalement stable et ne pourrait s’éloigner durablement de l’équilibre qu’à la suite de perturbations extérieures imprévisibles. Les crises ne seraient que temporaires et appelées à se résorber spontanément une fois le choc absorbé.
L’histoire bancaire et financière contredit profondément cette vision. Les crises bancaires et financières sont endogènes : elles émergent du fonctionnement normal des systèmes fondés sur le crédit, la liquidité et la confiance. Nous distinguerons deux types de crises, souvent confondues :
Ces deux types de crises obéissent à des mécanismes différents — même si dans les deux cas, la spéculation joue un rôle évident — mais elles sont aussi profondément articulées : une crise financière peut se transformer en crise bancaire, et une crise bancaire peut amplifier une crise financière. Lorsque la valeur des actifs chute, la solvabilité est remise en question ; lorsque la confiance disparaît, même des institutions solvables peuvent devenir illiquides. Loin d’être une anomalie ou une entorse aux règles du marché, le prêteur en dernier ressort est une construction institutionnelle visant à empêcher que les dynamiques endogènes de la finance ne dégénèrent en effondrement généralisé du système monétaire. Comprendre cette nécessité est l’objectif central de cette note.
La fragilité monétaire des banques découle directement de leur mode de fonctionnement, lié aux mécanismes de création monétaire. Rappelons donc que les banques créent des dépôts à l’occasion de leurs prêts. Ce pouvoir de création monétaire est limité par la réglementation (voir encadré sur le ratio de liquidité). Mais il est clair qu’elles ont moins de réserves6 et de liquidités immédiatement disponibles (billets ou réserves à la banque centrale) que de sommes exigibles à vue (comptes courants et comptes sur livret — appelés aussi livrets d’épargne). Cette possibilité permet d’augmenter le crédit et la masse monétaire, mais expose la banque à un risque de liquidité. Cela peut arriver dans deux cas non indépendants :
Dans les deux cas, la panique est auto-réalisatrice : la crainte de ne pas pouvoir retirer ses fonds pousse les déposants à agir collectivement, aggravant la situation. Ce phénomène explique pourquoi les faillites bancaires sont souvent liées à un manque de liquidité plutôt qu’à une insolvabilité réelle. Dans le deuxième cas (pertes de confiance mutuelles), le marché interbancaire peut se geler7 ce qui provoque une crise majeure (ce qui s’est passé en 2008).
Conclusion : une banque solvable (bénéficiaire comptablement), qui, en outre respecte les ratios de liquidité, peut néanmoins devenir illiquide et devoir immédiatement se déclarer en faillite. C’est pour cela que les sauvetages bancaires des banques systémiques se font en quelques heures.
| Ratios de liquidité réglementaires Les banques européennes doivent respecter divers ratios imposés dans la réglementation bancaire (mise en place après la crise de 2008 via les accords de Bâle III et transposée dans la réglementation européenne – CRR / CRD), dont le ratio de couverture de liquidité, le Liquidity Coverage Ratio (LCR). Le LCR un ratio à court terme mesurant la capacité d’une banque à faire face à un scénario de stress aigu de 30 jours (hausse des retraits, absence de financement, etc.). Il compare : – au numérateur : les actifs liquides dits de haute qualité (High-Quality Liquid Assets, HQLA) que la banque peut mobiliser rapidement (billets, réserves à la banque centrale, obligations souveraines liquides), – au dénominateur : les sorties nettes de trésorerie estimées dans un scénario de crise sur 30 jours. L’exigence est que la banque détienne au moins 100 % de HQLA par rapport à ses sorties nettes de trésorerie, ce qui signifie qu’elle serait en théorie capable de survivre un mois de stress sans refinancement externe. En pratique, les banques européennes ont maintenu des LCR bien au-dessus de 100 % ces dernières années8. Mais les sorties nettes de trésorerie utilisées dans le calcul du LCR reposent sur des hypothèses statistiques et des scénarios de stress calibrés ex ante. Une panique bancaire constitue par nature un événement hors modèle, marqué par une accélération brutale et non linéaire des retraits. Le cas de Credit Suisse racheté de toute urgence par UBS en 2023 illustre cette limite : alors que la banque respectait les exigences de liquidité réglementaires avant la crise, la perte de confiance a provoqué des sorties de dépôts à une vitesse et une ampleur incompatibles avec les hypothèses du LCR, rendant nécessaire une intervention publique et une reprise d’urgence. |
Les crises financières, dont on va parler maintenant, ne sont pas liées à la création monétaire, stricto sensu. Elles obéissent à une autre logique que Hyman Minsky9 a bien mis en évidence.
Le crédit est au cœur du fonctionnement moderne des économies. Contrairement à une idée reçue selon laquelle l’épargne précède nécessairement l’investissement, c’est le crédit qui finance l’activité dans les systèmes bancaires contemporains. Or la dynamique du crédit est intrinsèquement génératrice de cycles et de risques de crises.
Le crédit tend à croître en période d’expansion et à se contracter lors des ralentissements. En phase de croissance, les banques et les marchés financiers deviennent plus confiants et anticipent des rendements futurs élevés. Dans ce contexte, les agents économiques sont incités à accroître leur recours à l’endettement et à l’effet de levier10 pour financer de nouveaux investissements ou prendre des positions fondées sur l’anticipation de la hausse des prix des actifs. Ces investissements et les stratégies des “spéculateurs”11 soutiennent la production, les profits et la valorisation des actifs, ce qui renforce la confiance générale et encourage de nouveaux emprunts. Les banques prêtent alors davantage, alimentant à la fois la demande et la hausse des prix des actifs.
Une perte de confiance peut se produire à tout instant qui inverse les anticipations et la dynamique. Dans cette phase de contraction, la peur et l’incertitude incitent à réduire le crédit, ce qui amplifie la baisse économique et accentue les pertes de valeur. Les anticipations spéculatives s’inversent. Le recours antérieur à un levier élevé accentue et accélère la contraction. Une petite variation de la valeur des actifs peut en effet provoquer des pertes disproportionnées pour des agents fortement exposés. Par exemple, si une banque détient un portefeuille fortement « leveragé » (avec fort effet de levier) et que la valeur des actifs baisse de quelques %, les pertes en capital peuvent dépasser ce que la banque peut absorber, même si ses actifs restent supérieurs à zéro.
Les crises financières ne se limitent pas aux banques traditionnelles. Depuis les années 1980, le développement du shadow banking12 — opérateurs non bancaires de crédit et de financement — a introduit de nouvelles sources d’instabilité, amplifié les cycles financiers et rendu le système plus vulnérable aux « runs de marché » et aux fire sales.
Ces institutions empruntent à court terme pour investir à long terme. Comme les banques, elles sont exposées au risque de panique : si leurs créanciers perdent confiance, ils retirent rapidement leurs fonds ou cessent de renouveler leurs prêts. Le shadow banking augmente donc la disponibilité de crédit, stimulant l’investissement et la croissance et accroît la fragilité globale, car une défaillance peut se propager rapidement, mais là sans filet réglementaire. Le shadow banking échappe en effet en grande partie aux exigences prudentielles, aux ratios de liquidité et au filet de sécurité publique applicables aux banques traditionnelles. Il est soumis à une régulation principalement axée sur les marchés et la protection des investisseurs.
Contrairement aux retraits massifs de dépôts, les “runs de marché“ se produisent sur les marchés de produits de financement à court terme : repos (voir encadré), billets de trésorerie, fonds monétaires. Lorsqu’un acteur perd confiance, il peut refuser de renouveler des prêts à court terme ou demander un remboursement immédiat. Cette panique se propage rapidement aux autres acteurs, par contagion systémique, même si les institutions ne sont pas techniquement insolvables. Ainsi, la fragilité du marché repose sur la liquidité perçue, et non sur la valeur fondamentale des actifs.
| Qu’est-ce qu’un REPO ? Un repo (repurchase agreement, ou accord de rachat) est un prêt garanti à très court terme, dans lequel une institution vend des titres financiers à une contrepartie contre des liquidités et s’engage simultanément à racheter ces titres à une date ultérieure à un prix convenu. Le différentiel entre le prix de vente et le prix de rachat constitue le coût implicite du financement. Les repos sont largement utilisés par les banques commerciales et d’investissement, pour gérer leur liquidité quotidienne et financer leurs portefeuilles ; par les gestionnaires d’actifs et fonds d’investissement, pour placer temporairement des liquidités excédentaires ou financer des achats d’actifs ; et par les “asset owners” (fonds de pension, compagnies d’assurance, fonds souverains), pour optimiser la gestion de trésorerie et couvrir leurs engagements à court terme. En pratique, le repo permet à ces institutions de convertir rapidement des actifs sûrs en liquidités ou de financer des positions de manière sécurisée, tout en offrant un instrument flexible et considéré comme peu risqué pour le marché interbancaire et les marchés financiers en général.Les banques centrales utilisent les repos comme un outil de prêteur en dernier ressort (voir plus loin) : elles achètent temporairement des titres auprès des banques commerciales en échange de liquidités. Cela permet aux banques d’obtenir immédiatement du cash pour faire face à leurs besoins urgents. Ces opérations sont particulièrement utilisées en période de tension sur les marchés, quand les banques auraient autrement du mal à refinancer leurs actifs ou à honorer les retraits de leurs clients. En pratique, la banque centrale injecte de la liquidité au moment où survient une crise de confiance ou de liquidité, puis récupère les titres lorsque la situation se normalise. |
Pour se protéger d’une crise de liquidité, les institutions sont souvent contraintes de vendre rapidement leurs actifs, souvent à des prix bien inférieurs à leur valeur comptable. Ces ventes d’urgence appelées « fire sales » ont plusieurs effets. Elles amplifient la baisse des prix des actifs, affectant les bilans d’autres institutions. Elles créent des spirales auto-renforcées : la baisse de prix entraîne des pertes, qui conduisent à de nouvelles ventes et … de nouvelles baisses. Elles peuvent transformer une crise de liquidité en crise financière globale.
Même si les banques sont mieux régulées, elles sont fortement connectées au shadow banking. Les runs de marché et les fire sales peuvent donc contaminer le système bancaire classique, des défaillances de banques pourtant solvables, voire un gel du marché interbancaire et, si le mécanisme de LOLR (voir plus loin) n’intervient pas, une crise monétaire.
Les banques, les entreprises et les marchés financiers forment un réseau complexe, où les défaillances d’un acteur peuvent se propager à l’ensemble du système. Les interconnexions financières ont deux effets opposés :
Un réseau bien connecté peut absorber des chocs limités mais amplifier les chocs importants. L’histoire de la crise de 2008 montre qu’une contagion rapide est possible même à partir d’un segment de marché limité (par exemple, les crédits hypothécaires subprimes). La contagion peut se produire par plusieurs mécanismes. Un défaut bancaire entraîne des pertes immédiates chez ses créanciers. Indirectement, la perception du risque se diffuse, entraînant un gel des marchés interbancaires ou la réduction du crédit. Enfin la vente forcée d’actifs (fire sale) déprécie les prix, fragilisant encore d’autres institutions.
Ainsi, un choc initial limité peut devenir une crise systémique. Comme pour le crédit, la fragilité des réseaux financiers est endogène : elle émerge de l’accumulation de dettes, de la centralisation des risques et de la confiance mutuelle dans les contreparties. Il ne faut pas attendre un choc extérieur pour voir apparaître des crises : les interconnexions et la structure même du réseau suffisent à générer une vulnérabilité systémique. Ce risque a été démontré mathématiquement (voir encadré).
Dans un réseau financier, certaines institutions jouent un rôle central, comme des hubs dans un réseau de transport. Leur défaillance affecte directement de nombreuses autres institutions et leur rôle est crucial dans la circulation du crédit et de la liquidité. Ces banques “too big to fail” ou “too interconnected to fail” dites systémiques posent un problème d’aléa moral : leur importance structurelle peut les inciter à prendre plus de risques, en comptant sur une intervention en dernier ressort si nécessaire.
| Modèles de réseaux représentant les risques de propagation de défaillance Les modèles mathématiques de réseaux sous forme de graphes permettent d’étudier la propagation des défaillances. Voici deux articles de référence dont on recopie ici le résumé : Gai & Kapadia (2010)13 Cet article explore “comment la probabilité et l’impact potentiel de la contagion sont influencés par les chocs agrégés et idiosyncrasiques, les changements dans la structure du réseau et la liquidité du marché des actifs. Nos conclusions suggèrent que les systèmes financiers présentent une tendance à la fois robuste et fragile : si la probabilité de contagion peut être faible, les effets peuvent être extrêmement étendus lorsque des problèmes surviennent. Nous expliquons également pourquoi la résilience du système face à des chocs assez importants avant 2007 n’aurait pas dû être considérée comme un indicateur fiable de sa robustesse future.” Acemoglu et al. (2015)14 “Cet article soutient que l’ampleur de la contagion financière présente une forme de transition de phase : tant que l’ampleur des chocs négatifs affectant les institutions financières est suffisamment faible, un réseau financier plus dense (correspondant à une structure plus diversifiée des engagements interbancaires) renforce la stabilité financière. Cependant, au-delà d’un certain point, les interconnexions denses servent de mécanisme de propagation des chocs, ce qui rend le système financier plus fragile. Nos résultats soulignent ainsi que les mêmes facteurs qui contribuent à la résilience dans certaines conditions peuvent constituer des sources importantes de risque systémique dans d’autres.” |
Les crises financières ne deviennent pas automatiquement des crises monétaires. Une baisse des prix d’actifs, des pertes bancaires ou des défauts d’emprunteurs peuvent être absorbés tant que la confiance dans la capacité du système à honorer ses engagements à court terme demeure intacte. La transformation d’une crise financière en crise monétaire c’est le passage d’une perte de valeur des actifs à une panne de liquidité.
Toute crise financière débute par une perte de valeur des actifs. Des investissements se révèlent moins rentables que prévu, certaines dettes deviennent douteuses, et les bilans se détériorent. À ce stade, il s’agit d’un phénomène classique dans une économie de marché fondée sur le crédit, comme on l’a vu. La bascule intervient lorsque les acteurs cessent de se demander si les actifs valent ce qui était anticipé à long terme, pour se concentrer sur une question plus immédiate : les promesses de paiement à court terme seront-elles honorées ?
Dans un système bancaire moderne, la liquidité repose largement sur des mécanismes de refinancement mutuel. Les banques se prêtent entre elles sur la base d’une confiance partagée dans la qualité des bilans et la continuité du système. Lorsque la crise financière s’aggrave, cette confiance se fragilise. Les établissements deviennent réticents à prêter à leurs pairs, non par manque de liquidité globale, mais par incertitude sur la solvabilité individuelle des contreparties. Le marché interbancaire se grippe, voire se fige complètement. Ce gel transforme une crise financière localisée en crise de liquidité systémique. Des institutions solvables sur le papier se retrouvent incapables de refinancer leurs engagements à court terme.
À mesure que les tensions de liquidité s’accumulent, la crainte se diffuse au-delà des banques. Déposants, investisseurs et contreparties cherchent à convertir leurs créances en actifs perçus comme parfaitement liquides et sûrs. Cette dynamique collective peut prendre la forme de retraits bancaires, de ventes massives d’actifs ou de refus de “rouler” des financements de court terme. La dynamique de panique s’enclenche comme on l’a vu. Des institutions pourtant solvables deviennent illiquides. C’est ce mécanisme qu’a illustré la crise de 2008 : une crise financière née sur les marchés du crédit immobilier s’est transformée en crise monétaire lorsque la confiance dans les promesses de paiement bancaires s’est effondrée.
Inversement, une crise monétaire peut provoquer une crise financière profonde. Lorsque la liquidité disparaît, le crédit est coupé, les entreprises ne peuvent plus financer leur activité courante, les faillites se multiplient. Les actifs sont liquidés dans l’urgence, les prix s’effondrent, et la crise financière s’aggrave. La crise de 1929 illustre ce mécanisme inverse : la panique bancaire et la contraction monétaire du début des années 1930 ont amplifié une récession initiale en effondrement économique durable. L’absence d’un prêteur en dernier ressort efficace a transformé une crise sévère en catastrophe systémique.
Nous venons de voir que les crises monétaires et financières sont endogènes aux systèmes complexes fondés sur le crédit bancaire et le shadow banking. Le rôle du régulateur est de concevoir des institutions capables d’en limiter les effets destructeurs. L’institution la plus déterminante est celle du prêteur en dernier ressort (LOLR).
Le risque de bank run illustre parfaitement sa fonction : fournir de la liquidité aux banques solvables mais illiquides ce qui stabilise la confiance des déposants, empêche la panique de se propager à d’autres institutions et maintient le système monétaire opérationnel, même en période de crise. Mais nous avons vu que les crises financières ( de solvabilité) peuvent dégénérer en crises monétaires. Le LOLR joue donc un rôle aussi pour limiter ce risque.
La fonction du LOLR est exactement celle du « back stop » connu dans de nombreux cas en physique, en écologie ou dans les réseaux « électriques ou numériques » (voir encadré).
| La nécessité de backstop dans les systèmes complexes Un backstop est un mécanisme de dernier recours destiné à assurer la stabilité d’un système lorsque ses règles ordinaires ou ses processus automatiques échouent. Il n’agit pas en permanence, mais en cas de crise. En matière financière et monétaire, sa simple existence suffit souvent à prévenir une crise. Ce concept s’applique à de nombreux domaines au-delà de la finance. Dans un réseau électrique, le backstop comprend des réserves de capacité, des barrages hydrauliques à démarrage rapide, empêchent une surcharge locale ou des mécanismes automatiques de délestage comme des disjoncteurs. Ces dispositifs ne sont pas utilisés en fonctionnement normal, mais ils évitent que des pannes locales se propagent en black-out systémique. Dans l’informatique et les réseaux distribués, les backstops se traduisent par des serveurs de secours, des réplications de données et des protocoles de tolérance aux pannes, qui empêchent la propagation des défaillances. Dans les systèmes mécaniques ou structurels, les marges de sécurité et les dispositifs redondants assurent que des surcharges imprévues ne provoquent pas la rupture instantanée de la structure. En ingénierie mécanique, les structures critiques (ponts, avions, ascenseurs) intègrent des coefficients de sécurité et des dispositifs redondants qui n’optimisent pas le rendement, mais empêchent la rupture brutale en cas de surcharge imprévue. Un système “optimisé” sans marge de sécurité est plus performant en apparence, mais cassant. Dans un réacteur nucléaire, les barres de contrôle constituent un backstop : elles ne produisent pas l’énergie, mais absorbent les réactions en chaîne lorsqu’elles deviennent instables. Dans la théorie des réseaux, un backstop correspond à un nœud ou une capacité externe capable d’absorber des chocs lorsque les connexions ordinaires sont saturées. Sans ce mécanisme, les chocs se propagent par contagion, conduisant à des cascades de défaillances. Même les écosystèmes disposent de formes naturelles de backstop : la diversité des espèces et les capacités de régénération permettent au système de résister aux chocs environnementaux. La leçon générale est claire : tout système complexe reposant sur la coordination et la confiance est structurellement fragile sans backstop. La stabilité n’est pas une propriété spontanée des règles ordinaires ; elle dépend de l’existence d’une capacité de soutien exceptionnelle, capable d’absorber des chocs extrêmes et de maintenir l’intégrité du système. Supprimer ou ignorer le backstop revient à transformer une robustesse apparente en vulnérabilité latente. C’est pourquoi les tentatives de se passer de régulation dans le monde des cryptoactifs sont toutes condamnées à échouer (voir le post « Tokénisation de la finance et euro numérique »). |
Cette fonction a été imaginée par Walter Bagehot, économiste, banquier et journaliste, qui, dans son ouvrage considéré souvent comme mythique Lombard Street a formulé les principes qui restent aujourd’hui la référence en la matière15. Il avait bien compris que les banques pouvaient être solvables (leurs actifs valant plus que leurs passifs) et illiquides (incapables de répondre à tous les retraits immédiats). Il identifiait la cause principale des faillites bancaires comme la panique des déposants, et non l’insolvabilité. Ainsi, une banque centrale avait à ses yeux comme rôle en tant que LOLR de prévenir les effondrements liés à la liquidité, tout en laissant les pertes financières se matérialiser. Il avait bien en tête que le prêteur en dernier ressort n’empêche pas les crises financières ni ne garantit la rentabilité des banques. Son rôle est strictement préventif pour la monnaie : il met fin à la panique, il maintient la continuité des paiements et du crédit à court terme et permet aux ajustements financiers inévitables de se produire sans effondrement monétaire systémique.
Bagehot recommandait une intervention ciblée et prudente reposant sur trois piliers :
1. Prêter librement aux banques solvables pour qu’elles puissent faire face aux retraits.
2. Prêter contre bonnes garanties pour éviter les abus.
3. Prêter à un taux élevé pour ne pas encourager une prise de risque excessive.
Cette “règle” vise à équilibrer deux objectifs : stabiliser la monnaie et limiter l’aléa moral. Elle reste pleinement d’actualité.
Conclusion
Le prêteur en dernier ressort est une institution centrale pour limiter la transformation des crises financières en effondrement monétaire systémique. Il ne supprime pas l’instabilité ni ne garantit la rentabilité des banques, mais il fournit rapidement de la liquidité aux institutions solvables mais temporairement illiquides, préservant la confiance, la continuité des paiements et la stabilité du système. Les crises récentes montrent que les outils prudentiels seuls — ratios de capital et de liquidité — ne suffisent pas à prévenir les paniques, dont la dynamique non linéaire échappe aux modèles.
La fonction de LOLR agit comme un backstop institutionnel, crucial pour les banques et, de plus en plus, pour le shadow banking, où des “runs de marché” et des ventes forcées peuvent contaminer l’ensemble du système. Elle exige toutefois un encadrement strict afin de limiter l’aléa moral : protéger la monnaie et la confiance sans inciter à des prises de risque excessives.
Avec la digitalisation et la tokenisation des actifs, les enjeux évoluent. La réflexion sur le LOLR et la conception d’une CBDC sûre deviennent indissociables : garantir la continuité des paiements, protéger la confiance et encadrer l’innovation financière sont désormais des impératifs simultanés.
Alain Grandjean
crédit photo : ©Monkasei – Dreamstime.com
Notes
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎The post Crises bancaires et financières : le rôle du prêteur en dernier ressort appeared first on Chroniques de l'Anthropocène.
04.02.2026 à 10:00
Alain Grandjean
La règle des 80/20, dite “loi de Pareto” (voir encadré), est largement utilisée en entreprise …
The post Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie appeared first on Chroniques de l'Anthropocène.
La règle des 80/20, dite “loi de Pareto” (voir encadré), est largement utilisée en entreprise en tant que pratique opérationnelle. Elle permet d’identifier ce qui a le plus d’impact afin de concentrer les efforts sur les actions les plus utiles. Nous allons voir ici que derrière cette règle se cache une logique, observable dans des contextes aussi variés que la culture, la finance ou l’organisation industrielle. Ces contextes sont riches de distributions de données, où quelques éléments dominent, tandis qu’une majorité forme une “longue traîne”. Cette régularité renvoie à une structure statistique générale : les lois de puissance1.
Nous allons montrer dans la suite comment les lois de puissance façonnent la dynamique économique contemporaine. Du constat empirique de Pareto à la domination des blockbusters, en passant par la formalisation des réseaux dits “invariants d’échelle”, celle des bulles financières et la formation des oligopoles, nous verrons que la concentration des ressources, de l’attention et des parts de marché n’est pas accidentelle, mais structurelle. Nous donnerons des exemples concrets issus du cinéma, de l’édition, de la musique ou du sport professionnel, puis nous présenterons des modèles issus de la science des réseaux, notamment celui de Barabási–Albert, qui permettent de comprendre comment les phénomènes de “winner takes all” émergent et se stabilisent. Nous appliquerons ces raisonnements aux mondes de la finance et de la formation des bulles financières et à celui de l’économie industrielle, à celui des médicaments et à la formation des oligopoles. Les lois de puissance apparaissent alors non comme une anomalie ou comme une curiosité mathématique, mais comme une clé de lecture essentielle des économies contemporaines.
Cette note a bénéficié des commentaires de Paul-Henri Roméo. Sa responsabilité n’est bien sûr pas engagée dans ce document.
| Loi de Pareto : d’une règle empirique à la structure des systèmes économiques Dans de nombreux contextes professionnels, une règle empirique simple est devenue un outil courant de décision et de priorisation : la règle des 80/20. Les praticiens du management, du marketing, de la logistique ou de l’ingénierie l’utilisent quotidiennement, souvent sans se préoccuper de son origine théorique. Elle sert avant tout à gagner du temps, à concentrer l’effort là où il est le plus efficace, et à éviter la dispersion. Ainsi, il n’est pas rare d’observer que : – 20 % des clients génèrent environ 80 % du chiffre d’affaires ; – 20 % des produits concentrent l’essentiel des ventes ou des stocks ; – une minorité de fonctionnalités d’un logiciel concentre la majorité des usages ; – une minorité de commandes génère la plupart des retards de livraison. … Dans ces situations, la règle des 80/20 n’est pas utilisée comme une loi exacte, mais comme une démarche opérationnelle : elle permet d’identifier rapidement les éléments dominants d’un système et de structurer l’action autour d’eux. Elle reflète une intuition largement partagée par les praticiens : les contributions ne sont pas réparties uniformément, et chercher à traiter tous les éléments de la même manière est souvent inefficace. Ce qui est frappant, toutefois, c’est la robustesse2 et la généralité de cette régularité. Bien au-delà des contextes managériaux, on retrouve des phénomènes similaires dans des domaines très différents : répartition des ventes culturelles, audiences médiatiques, tailles d’entreprises, parts de marché, fréquentation des plateformes numériques ou encore trafic sur Internet. Partout, une minorité d’éléments concentre une part disproportionnée des flux, tandis qu’une majorité reste marginale, sans être négligeable. Ces observations renvoient à deux caractéristiques structurelles majeures : – la concentration, où quelques acteurs ou objets dominent largement le système ; – la longue traîne, constituée d’une multitude d’éléments faiblement contributifs, mais dont l’ensemble peut représenter une masse significative. C’est précisément cette combinaison — domination de quelques-uns et étirement de la distribution — que la règle des 80/20 cherche à capturer de manière approximative. |
Lorsque Vilfredo Pareto3 étudie, à la fin du XIXᵉ siècle, la répartition des patrimoines dans plusieurs pays européens, son ambition n’est pas de formuler une loi universelle, encore moins une théorie normative de la justice sociale. Son approche est essentiellement empirique. En compilant des données fiscales et cadastrales, il constate que la distribution observée s’écarte systématiquement des formes statistiques alors utilisées pour décrire les phénomènes naturels ou sociaux.
Ce qui frappe Pareto n’est pas seulement l’existence d’écarts importants entre individus, mais la structure même de la distribution. Contrairement à une répartition symétrique autour d’une valeur moyenne, les données montrent une concentration marquée : une petite fraction de la population détient une part très élevée du patrimoine total, tandis qu’une majorité se répartit le reste selon une décroissance régulière. Cette forme se reproduit de manière remarquablement stable d’un pays à l’autre, indépendamment des contextes institutionnels ou historiques.
Pareto met ainsi en évidence une régularité statistique robuste, qui sera plus tard résumée — de manière simplificatrice — par la règle des 80/20. Mais son observation est plus générale : il s’agit d’une distribution sans échelle caractéristique, c’est-à-dire non représentable par des valeurs typiques qui la résument. Une distribution gaussienne (voir §1.2), par exemple, est résumée par sa moyenne et son écart-type qui mesure la dispersion autour de cette moyenne. Une distribution sans échelle (scale-free) est dominée par ses extrêmes et ne possède pas de taille, de richesse ou de fluctuation “typique”.
| Encadré historique : de Pareto aux lois de puissance Bien que Pareto ait observé la forte concentration des patrimoines, il n’a jamais formulé de loi mathématique générale. Le lien entre ses observations et les lois de puissance modernes a été établi progressivement : – George K. Zipf4 (1935) étudie la fréquence des mots dans les textes, découvrant une décroissance assimilable à une loi de puissance : dans un texte donné, la fréquence d’occurrence f(n) d’un mot est liée à son rang n dans l’ordre des fréquences par une loi de la forme f(n)=K/n où K est une constante. – Benoît Mandelbrot5, au début des années 1960, formalise mathématiquement des distributions en loi de puissance, montrant que les inégalités de revenus ou la distribution des tailles d’entreprises suivent des lois stables à queue lourde. – Barabási & Albert (voir §4) modélisent des réseaux en croissance avec attachement préférentiel, produisant naturellement des distributions en loi de puissance et des hubs, expliquant la concentration dans les systèmes sociaux, économiques et numériques. |
Pour comprendre la portée de cette observation, il est utile de la comparer aux distributions plus familières, notamment la loi normale (ou gaussienne, ces deux termes sont synonymes). Dans une distribution gaussienne, la majorité des observations se concentrent autour d’une moyenne qui résume efficacement le système. C’est le cas de la taille des adultes dans un pays, leur température corporelle, du nombre d’heures passées à la télé, des résultats au BAC etc. Les écarts extrêmes sont rares et jouent un rôle marginal. Ce type de distribution est bien adapté à des phénomènes où les fluctuations sont le résultat de nombreuses causes indépendantes et de faible amplitude.
Les distributions observées par Pareto, et plus tard dans de nombreux contextes économiques, sont de nature très différente. Elles se caractérisent par une queue longue, où les valeurs décroissent lentement. Dans ces distributions, la moyenne devient un indicateur fragile, parfois peu informatif, car une petite fraction des observations contribue de manière disproportionnée au total et qu’elle peut changer avec l’introduction d’un nouveau point extrême. On peut dénombrer beaucoup de petites villes et quelques mégalopoles énormes : la moyenne de la taille des villes dans un tel échantillon change beaucoup si on en rajoute une6…
Pour comprendre pourquoi les distributions observées présentent à la fois concentration et longue traîne, il est utile de visualiser la forme d’une loi de puissance. Mathématiquement, une loi de puissance est une relation entre deux quantités x et y qui peut s’écrire de la façon suivante : y=axk où a est une constante dite constante de proportionnalité, k, valeur négative, est une autre constante, dite exposant, puissance, indice ou encore degré de la loi et x nombre réel strictement positif. Voici un graphique et son commentaire issus de Wikipedia.

La distribution d’une loi de puissance, correspondant par exemple à un classement de popularité des sites web (en ordonnée le classement d’un site, en abscisse les sites classés par ordre décroissant de popularité). À gauche, la zone verte illustre le principe des 80-20. (20% des sites cumulent 80 % des visites). À droite la queue de la distribution illustre l’effet “longue traîne”.
Quelques propriétés pédagogiques importantes expliquent ce que Pareto avait observé :
Les lois de puissance sont intimement liées à la notion de fractale. Une distribution en loi de puissance est dite auto-similaire, car la forme de la distribution se répète à différentes échelles : qu’on considère les plus grands patrimoines ou les plus petits, le rapport entre les rares valeurs élevées et la multitude de valeurs modestes suit la même règle statistique. Cette propriété explique pourquoi la concentration et la longue traîne coexistent dans presque tous les systèmes observés — marchés, réseaux sociaux ou ventes culturelles — et pourquoi des patterns similaires apparaissent dans des domaines très différents. Même si les fractales ne sont pas le sujet de cette note, elles fournissent une intuition visuelle forte : les systèmes économiques dominés par des lois de puissance sont, à leur manière, autosimilaires et hiérarchiquement organisés.
Reste à comprendre maintenant comment cette forme émerge dynamiquement dans des contextes où les agents interagissent et se sélectionnent mutuellement. C’est l’objet du chapitre suivant.
Les distributions de type parétien se manifestent avec une clarté particulière dans les domaines où la ressource fondamentale est l’attention. Parce que celle-ci est cumulative et auto-renforçante, elle tend à se concentrer sur quelques acteurs, qui accaparent l’essentiel du temps d’écoute, de la visibilité médiatique ou de l’audience. La concentration observée relève alors d’une dynamique de type « winner takes all”
Cette expression ne signifie pas que le gagnant capte littéralement tout, mais que les premiers captent beaucoup plus que les suivants, et ce de manière disproportionnée. Les écarts entre les leaders et le reste de la distribution sont sans commune mesure avec les différences observées dans des systèmes plus homogènes. Une œuvre légèrement plus visible peut générer un succès massif, tandis que des productions proches en qualité restent marginales.
Comment expliquer que des différences initiales relativement modestes produisent, au fil du temps, des écarts aussi extrêmes ? La réponse ne se trouve pas uniquement dans la qualité intrinsèque ou dans le talent, mais dans la dynamique même des systèmes d’attention.
L’industrie cinématographique offre un exemple emblématique de cette dynamique. Chaque année, des centaines de films sortent sur les écrans, mais une poignée d’entre eux réalise l’essentiel du box-office mondial. Ces blockbusters ne se contentent pas de réussir un peu mieux que les autres : ils dominent largement l’ensemble du marché.
Plusieurs mécanismes se combinent. Les budgets marketing sont concentrés sur quelques titres, ce qui accroît leur visibilité initiale. Le succès en salle génère une couverture médiatique accrue, qui renforce à son tour la fréquentation. Les plateformes de recommandation, les classements hebdomadaires et le bouche-à-oreille amplifient encore ces effets. Le résultat est une distribution très étirée : quelques films8 concentrent la majorité des recettes, tandis qu’une longue traîne de productions reste faiblement visible.
Des mécanismes analogues sont à l’œuvre dans l’édition et la musique. Dans le secteur du livre, les listes de best-sellers jouent un rôle central. Une fois qu’un ouvrage entre dans ces classements, il bénéficie d’une exposition accrue en librairie, sur les plateformes en ligne et dans les médias. Cette visibilité supplémentaire augmente les ventes, ce qui consolide sa position dans les classements. Le processus est circulaire.
La musique amplifie encore cette logique, notamment avec le streaming. Les plateformes mettent en avant les titres déjà populaires, via des playlists éditoriales ou algorithmiques. Les morceaux les plus écoutés sont davantage recommandés, ce qui accroît encore leur audience. Là encore, une minorité d’artistes concentre une part considérable des écoutes mondiales, tandis que la majorité demeure dans une longue traîne faiblement monétisée.
Ce phénomène conduit à l’émergence de superstars, dont la visibilité dépasse largement celle de leurs concurrents, parfois indépendamment d’écarts proportionnels de qualité ou de productivité. Le succès devient un facteur de production à part entière.
Ce qui unifie ces exemples, c’est la présence de boucles de rétroaction positives. La visibilité engendre l’attention, l’attention engendre la visibilité. Chaque succès augmente la probabilité de succès futur. Dans un tel contexte, l’histoire compte : l’ordre d’arrivée, les premiers succès et les trajectoires initiales ont un impact durable.
L’économie de l’attention fonctionne ainsi comme un système cumulatif, dans lequel les distributions de résultats prennent naturellement la forme de lois de puissance. Les phénomènes de “winner takes all” ne sont pas des anomalies à corriger ponctuellement, mais des conséquences structurelles de la manière dont l’information, la visibilité et les choix individuels interagissent.
Pour passer de ce constat empirique à une compréhension plus formalisée, il faut identifier les mécanismes élémentaires à l’œuvre dans ces dynamiques cumulatives. Le chapitre suivant s’attache à expliciter l’un de ces mécanismes fondamentaux, l’attachement préférentiel, souvent résumé par l’idée simple : « le succès appelle le succès ».
Dans le chapitre précédent, le succès a été décrit à travers ses résultats : parts de marché, audiences, ventes, visibilité. Ces indicateurs donnent une image statique des hiérarchies observées. Mais pour comprendre pourquoi ces hiérarchies prennent une forme aussi marquée et persistante, il faut déplacer l’analyse vers les processus dynamiques qui les produisent.
L’idée centrale de l’attachement préférentiel est la suivante : la probabilité de succès futur dépend du succès passé. Autrement dit, le succès n’est pas seulement une conséquence de caractéristiques intrinsèques, il devient lui-même un facteur causal. Cette logique transforme des différences initiales, parfois modestes, en écarts durables et cumulés.
Ce principe a été formulé sous différentes appellations — avantage cumulatif, effet Matthieu9 — mais il renvoie toujours à la même intuition fondamentale : dans certains systèmes, la croissance est proportionnelle à la taille.
Considérons un acteur — une entreprise, un artiste, un produit — objet d’un choix collectif. Si cet acteur est déjà connu, visible ou recommandé, il a davantage de chances d’être sélectionné à nouveau. Chaque choix renforce sa position relative, ce qui accroît encore la probabilité de choix futurs. La dynamique est circulaire.
Ce mécanisme ne suppose ni rationalité parfaite10 ni stratégie consciente. Il suffit que les décisions individuelles soient influencées, même faiblement, par des signaux de popularité ou de visibilité. Dans ce cas, l’agrégation de comportements locaux produit une dynamique globale fortement asymétrique.
L’attachement préférentiel peut ainsi être compris comme une règle probabiliste minimale : plus un acteur est déjà choisi, plus il est susceptible de l’être à nouveau. Cette règle suffit à générer des hiérarchies très inégalitaires.
Un élément clé de l’attachement préférentiel est le rôle de l’information imparfaite11. Dans des environnements complexes, les agents ne peuvent pas évaluer exhaustivement toutes les options disponibles. Ils s’appuient sur des signaux simplificateurs : popularité, réputation, classement, notoriété. Ces signaux ne sont pas neutres. Ils reflètent l’histoire passée du système et orientent les choix futurs. En ce sens, l’attachement préférentiel peut être vu comme une conséquence naturelle d’une rationalité limitée12 : lorsque l’information est coûteuse, suivre ce qui est déjà populaire devient une stratégie raisonnable, bien que collectivement amplificatrice.
Pris isolément, l’attachement préférentiel conduit à une concentration extrême. Or, les systèmes réels présentent souvent des contre-mécanismes : saturation des marchés, contraintes de capacité, obsolescence, régulation, coûts d’entrée ou innovations disruptives. Ces facteurs modèrent, sans l’annuler, la dynamique cumulative.
L’attachement préférentiel n’est pas une description exhaustive, mais un mécanisme de base, susceptible d’être enrichi par d’autres hypothèses. Mais pour aller au-delà de l’intuition, l’attachement préférentiel et ses contre-mécanismes doivent être inscrits dans une structure explicite. Celle des réseaux s’est révélée particulièrement adaptée et féconde. Dans un réseau en croissance, chaque nouvel acteur établit des liens avec des acteurs existants. Si la probabilité de créer un lien dépend du nombre de liens déjà existants, alors l’attachement préférentiel devient une règle de construction du réseau.
C’est dans ce cadre que le modèle de Barabási–Albert apporte une contribution décisive. Il montre qu’un mécanisme d’attachement préférentiel, combiné à une croissance progressive du réseau, suffit à produire des structures dominées par quelques hubs et une longue traîne de nœuds faiblement connectés.
Les mécanismes décrits jusqu’ici — concentration, longue traîne, attachement préférentiel — appellent une représentation capable de relier des interactions locales simples à des structures globales observables. La notion de réseau fournit ce cadre. Dans un réseau, les entités (entreprises, œuvres, individus, plateformes) sont représentées par des nœuds (les sommets d’un graphe représentant le réseau), et leurs relations (transactions, recommandations, citations, collaborations) par des liens.
Cette représentation permet de dépasser une approche purement agrégée des marchés ou des audiences. Elle rend explicite la manière dont la visibilité, l’influence ou la position d’un acteur dépendent de sa place dans un ensemble de relations. Dans ce langage, le succès se traduit par un grand nombre de connexions, et la concentration par l’existence de hubs — des nœuds beaucoup plus connectés que la moyenne.
C’est dans ce cadre que s’inscrit le modèle proposé en 1999 par Albert-László Barabási et Réka Albert13, initialement pour décrire la structure du Web, mais dont la portée dépasse largement ce contexte.
Le modèle de Barabási–Albert repose sur deux hypothèses seulement. La première est la croissance du réseau : le système n’est pas figé : de nouveaux nœuds apparaissent progressivement. Dans un contexte économique, cela correspond à l’entrée de nouvelles entreprises, de nouveaux produits, de nouveaux créateurs ou de nouvelles œuvres.
La seconde est l’attachement préférentiel. Lorsqu’un nouveau nœud arrive, il ne se connecte pas au hasard. Il a une probabilité plus élevée de se relier aux nœuds déjà bien connectés. Autrement dit, les acteurs déjà visibles attirent plus facilement de nouvelles relations.
Ces deux hypothèses sont empiriquement plausibles et ne supposent ni coordination centrale ni rationalité parfaite. Elles traduisent simplement le fait que, dans un environnement complexe, les nouveaux entrants s’orientent vers ce qui est déjà visible ou reconnu.
À partir de ces hypothèses, le modèle produit un résultat remarquable : la distribution du nombre de connexions par nœud suit une loi de puissance (d’exposant -3). Cela signifie que le réseau ne possède pas d’échelle caractéristique. La majorité des nœuds possède peu de liens, tandis qu’une minorité en concentre un très grand nombre. Ces nœuds fortement connectés jouent un rôle structurant : ce sont les hubs du réseau. Leur présence n’est pas le résultat d’un choix délibéré ou d’une optimisation globale, mais l’issue naturelle d’une dynamique cumulative. Cette structure est observée empiriquement dans de nombreux systèmes économiques et culturels.
| Le modèle de Barabási–Albert : principe de la démonstration 1. Construction du modèle On part d’un petit réseau initial contenant quelques nœuds reliés entre eux. À chaque étape, un nouveau nœud est ajouté au réseau ; il crée m liens vers des nœuds déjà présents ; le choix des nœuds à connecter n’est pas aléatoire. 2. Attachement préférentiel La probabilité qu’un nouveau lien se connecte à un nœud donné dépend du nombre de liens déjà possédés par ce nœud. Si un nœud a un degré k (c’est-à-dire k connexions avec d’autres noeuds), alors la probabilité Π(k) qu’il reçoive un nouveau lien est proportionnelle à ce degré : Cela signifie simplement qu’un nœud deux fois plus connecté qu’un autre a deux fois plus de chances d’attirer un nouveau lien. Le dénominateur sert à normaliser pour que la somme des probabilités fasse 1. 3. Évolution du nombre de connexions d’un nœud Considérons un nœud i introduit à l’instant tiÀ chaque nouvel ajout de nœud, m nouveaux liens sont créés et le nœud i peut en recevoir une fraction. On peut alors écrire, en moyenne : Or, chaque lien ajoute deux extrémités au réseau, donc : Ce qui donne : 4. Résolution et interprétation Cette équation différentielle se résout aisément : Cela veut dire que plus un nœud est ancien, plus il a eu le temps d’accumuler des liens et que cette croissance suit une loi de puissance, et non une croissance linéaire. 5. Distribution des degrés (on nombre de connexions) On s’intéresse maintenant au nombre de nœuds ayant un degré donné k. En inversant la relation précédente, on obtient que la probabilité P(k) qu’un nœud ait un degré k vérifie : Cela signifie que les grands degrés sont rares mais pas exceptionnellement rares et qu’-il n’existe pas de degré typique : le réseau est sans échelle (scale-free). 6. Logique globale de la démonstration La démonstration repose sur une chaîne logique simple : 1. le réseau croît dans le temps ; 2. l’attachement préférentiel favorise les nœuds déjà connectés ; 3. cette règle produit une équation de croissance proportionnelle au degré ; 4. cette croissance mène naturellement à une loi de puissance ; 5. les hubs émergent sans planification centrale. |
Un aspect essentiel du modèle de Barabási–Albert est le rôle de l’histoire dans le processus. Les premiers nœuds bénéficient d’un avantage structurel : étant présents plus tôt, ils ont plus d’occasions d’accumuler des connexions. Cet effet d’antériorité peut conduire à des trajectoires très différentes à partir de conditions initiales proches.
Cette dépendance au sentier15 (path dependence) implique que les positions dominantes ne sont pas nécessairement le reflet d’une supériorité intrinsèque durable. Elles peuvent résulter de circonstances initiales favorables, amplifiées par la dynamique du réseau. Une fois établies, ces positions sont difficiles à contester, car les hubs attirent mécaniquement une part disproportionnée des nouvelles connexions.
Malgré sa puissance explicative, le modèle de Barabási–Albert reste très simplifié. Pris isolément, il tend à produire une concentration croissante sans borne. Or, les systèmes réels sont soumis à des contraintes supplémentaires : saturation de la demande, coûts croissants, régulation, innovation, obsolescence.
Pour tenir compte de ces éléments, plusieurs extensions ont été proposées : introduction de caractéristiques intrinsèques (fitness), plafonnement de l’attachement préférentiel, coûts de connexion ou mécanismes de vieillissement des nœuds. Ces variantes conservent la logique fondamentale du modèle tout en la rendant plus réaliste. (voir encadré).
| Extensions du modèle de Barabási–Albert : vers des réseaux plus réalistes Dès le début des années 2000, de nombreuses extensions ont été proposées au modèle Barabasi-Albert afin de mieux rendre compte de la diversité des réseaux observés dans le monde réel, tout en conservant la logique fondamentale du modèle. 1. Introduction de caractéristiques intrinsèques : les modèles à fitness Idée générale Dans le modèle de Barabási–Albert, tous les nœuds sont supposés équivalents au moment de leur apparition. Leur succès futur dépend uniquement de leur ancienneté et du nombre de liens déjà accumulés. Or, dans de nombreux contextes réels, certains nœuds possèdent des qualités intrinsèques qui les rendent plus attractifs que d’autres : qualité scientifique d’un article, pertinence d’un site web, talent d’un individu, etc. Les modèles à fitness introduisent cette hétérogénéité en attribuant à chaque nœud une capacité propre à attirer des connexions, indépendante de son âge. Résultats majeurs16 Ces modèles montrent qu’un nœud apparu tardivement peut devenir central s’il possède une fitness élevée, que l’ancienneté n’est plus la seule source d’avantage cumulatif et que, dans certains cas extrêmes, un seul nœud peut capter une fraction dominante des liens du réseau (phénomène de « winner takes all »). 2. Limitation ou modification de l’attachement préférentielIdée générale. Dans le modèle de Barabási–Albert, plus un nœud est connecté, plus il attire de nouvelles connexions, sans limite. Or, dans de nombreux réseaux réels, cette croissance peut être freinée par des contraintes cognitives ou organisationnelles, des limites techniques ou par des mécanismes institutionnels. Principales variantes Deux types de modifications ont été étudiés : – l’introduction d’une attractivité minimale, garantissant que même les nœuds peu connectés puissent attirer des liens ; – la modification de la manière dont la popularité influence l’attractivité, ce qui peut renforcer ou, au contraire, atténuer la domination des hubs. Résultats principaux17 Selon la variante considérée, les inégalités de connexions peuvent être réduites ou au contraire accentuées jusqu’à la domination quasi totale d’un petit nombre de nœuds ; la distribution des degrés peut s’écarter de la loi de puissance classique. 3. Coûts de connexion et contraintes de capacité Idée générale Dans les réseaux réels, créer ou maintenir une connexion a souvent un coût : temps, énergie, ressources financières, attention. Certains modèles introduisent explicitement ces coûts afin de limiter la croissance illimitée des hubs. Effets observés18 L’introduction de coûts ralentit la concentration excessive des liens, favorise une structure plus équilibrée et peut conduire à l’apparition de plusieurs hubs de taille intermédiaire plutôt qu’un petit nombre de super-hubs. Ces modèles sont particulièrement pertinents pour les réseaux économiques, biologiques ou sociau 4. Vieillissement des nœuds (aging)Idée générale. Dans de nombreux réseaux, l’attractivité d’un nœud diminue avec le temps. Les articles scientifiques sont moins cités lorsqu’ils deviennent anciens, les technologies obsolètes perdent leur attractivité et l’attention collective se déplace vers la nouveauté. Les modèles avec vieillissement introduisent un mécanisme par lequel la capacité d’un nœud à attirer de nouveaux liens décroît au cours du temps. Conséquences19 Ces modèles montrent que les hubs ont une durée de vie limitée, les structures de domination sont moins stables et la dynamique du réseau devient plus proche des observations empiriques. 5. Fermeture triadique20 et formation de communautés Idée générale Le modèle de Barabási–Albert produit peu de triangles et donc peu de communautés locales, contrairement aux réseaux sociaux réels. Des modèles hybrides combinent l’attachement préférentiel avec une tendance à se connecter aux voisins de ses voisins, renforçant ainsi la cohésion locale. Résultat21 On obtient des réseaux qui conservent une forte hétérogénéité des degrés, présentent un fort regroupement communautaire et ressemblent davantage aux réseaux sociaux observés. Conclusion Les extensions du modèle de Barabási–Albert permettent de mieux représenter les réseaux observés empiriquement mais que la logique de l’attachement préférentielle reste centrale pour expliquer l’avantage cumulatif . |
Dès les origines de la finance moderne, les trajectoires de prix des actifs ont été modélisés comme des mouvements browniens22 : une succession de variations aléatoires, indépendantes, de faible amplitude, dont la distribution est approximativement normale. Cette hypothèse, centrale dans la théorie financière classique (Bachelier, puis Black et Scholes), implique que les variations extrêmes sont rares, que les risques sont bien résumés par la variance, et que les crises majeures relèvent de l’exception.
Or, cette représentation est contredite de manière systématique par les données empiriques. Les séries temporelles de prix boursiers présentent des variations extrêmes beaucoup plus fréquentes que prévu, des épisodes de forte volatilité persistante, et des ruptures brutales caractéristiques des krachs et des bulles.
Autrement dit, les marchés financiers ne sont pas dominés par de petites fluctuations indépendantes, mais par des événements rares et massifs, analogues aux extrêmes observés dans les distributions de patrimoine, de succès ou de taille d’entreprise.
C’est Benoît Mandelbrot, dès les années 1960, qui établit explicitement le lien entre finance et lois de puissance (voir encadré page 5). En étudiant les variations des prix du coton puis des actifs financiers, il montre que leur distribution suit des lois à queue lourde, incompatibles avec la loi normale. Les implications sont profondes : les grandes variations ne sont pas des anomalies, la variance peut être mal définie ou instable, et le risque systémique est structurel, non accidentel.
Les marchés financiers rejoignent ainsi la famille des systèmes dominés par des lois de puissance, où quelques événements concentrent une part disproportionnée de l’impact total — exactement comme quelques individus concentrent la richesse ou quelques œuvres concentrent l’attention.
Les études empiriques ultérieures23 ont largement montré que les séries de rendements d’actifs financiers sont des distributions fortement non gaussiennes, à queues épaisses, aux dépendances temporelles fortes pour la volatilité, etc. Elles montrent que ces propriétés communes à de nombreux marchés remettent en question les hypothèses classiques (marche aléatoire, normalité).
Les bulles financières24 peuvent être interprétées comme une forme dynamique extrême du succès cumulatif. Leur mécanisme repose sur une logique proche de celle décrite dans les chapitres précédents : une hausse initiale d’un cours attire l’attention, qui attire de nouveaux acheteurs, ce qui fait monter les prix. La hausse passée devient une justification de la hausse future.
Rappelons que dans le mouvement brownien, au contraire, les déplacements (ici les variations de cours) n’ont ni histoire ni mémoire : chaque déplacement est indépendant du précédent. Ce mécanisme proposé ici est donc radicalement différent puisqu’au contraire « le succès (une hausse de prix) y appelle le succès. Les anticipations deviennent auto-réalisatrices, et la dynamique se détache progressivement des fondamentaux économiques.
Comme dans les réseaux scale-free, quelques actifs, secteurs ou narratifs deviennent des hubs financiers, concentrant flux de capitaux et attentes.
Un autre point de contact fort avec les lois de puissance réside dans la structure temporelle des marchés. Les séries financières présentent une auto-similarité : les mêmes motifs statistiques apparaissent à différentes échelles de temps (minutes, jours, années). Cette propriété est caractéristique des processus fractals (voir §1.4), tels que les a étudiés Mandelbrot.
Cela explique pourquoi des mini-bulles et mini-krachs coexistent avec de grandes crises, les marchés semblent calmes pendant longtemps, puis basculent brutalement. Au total la fréquence des crises majeures est bien plus élevée que ne le prédit un modèle brownien. Les bulles ne sont donc pas des accidents isolés, mais des manifestations naturelles d’un système à dynamique non linéaire, dominé par des rétroactions positives.
Dans un cadre brownien ou d’équilibre général, une bulle éclatée devrait conduire à un retour rapide vers une valeur fondamentale. Or, empiriquement, les krachs sont brutaux, asymétriques et suivis de phases longues de réorganisation. Cette asymétrie est typique des systèmes à loi de puissance : la montée est graduelle et cumulative, la chute est rapide et collective. Elle rappelle la dynamique des systèmes critiques ou la perte de connectivité dans les réseaux lorsque les hubs s’effondrent.
Les marchés financiers apparaissent ainsi comme des systèmes hors équilibre, proches de la criticité, où l’instabilité est endogène.
Dans l’industrie pharmaceutique, une petite minorité de médicaments génère une part disproportionnée des ventes totales, un schéma que l’on désigne sous le terme de “modèle blockbuster”25.
Historiquement, ce modèle a structuré la stratégie des grandes firmes : quelques produits à très fortes ventes couvrent les coûts immenses de recherche et développement et financent l’activité globale. Bien que les données détaillées par produit ne permettent pas toujours de tester formellement une loi de puissance au sens strict, la forte concentration observée — que ce soit avec des blockbusters classiques comme le Lipitor (nom commercial aux USA de l’atorvastatine, un “anticholestérol” ) ou des produits très largement prescrits comme le Doliprane — est cohérente avec des distributions très inégales similaires à celles observées dans d’autres industries de biens populaires.
Le succès d’un médicament résulte de l’interaction entre sa qualité intrinsèque et des dynamiques de rendements croissants. Dans le cas de l’imatinib, destiné à la leucémie myéloïde chronique, son efficacité exceptionnelle et sa spécificité scientifique ont favorisé une adoption rapide et quasi totale dès son introduction. Pour le Doliprane, le succès s’est construit plus progressivement : l’élargissement de ses indications et sa toxicité plus faible que celle de l’aspirine ont renforcé son adoption, soutenue par des mécanismes cumulés comme la confiance des patients et l’habitude des prescriptions. L’aspirine illustre quant à elle l’effet du repositionnement thérapeutique : à très faible dose, elle est aujourd’hui utilisée pour des indications qui étaient inconnues au moment de sa mise sur le marché, générant un regain d’intérêt et de prescriptions. Dans tous ces cas, ces mécanismes — qualité intrinsèque, adoption cumulative et repositionnement — produisent une concentration marquée de l’usage et de la notoriété, conformément à un schéma typique de loi de puissance : quelques médicaments captent l’essentiel des prescriptions, tandis que la majorité reste marginale.
Dans l’analyse économique classique, l’oligopole est souvent présenté comme une structure de marché particulière, située entre la concurrence parfaite et le monopole. Il est généralement expliqué par des barrières à l’entrée, des économies d’échelle, ou des comportements stratégiques des firmes en place. Cette lecture ne rend pas pleinement compte de la régularité empirique avec laquelle les oligopoles apparaissent dans des secteurs très différents.
Si l’on considère les marchés comme des réseaux en croissance, dans lesquels les entreprises nouent des relations avec des clients, des fournisseurs, des partenaires ou des utilisateurs, alors l’oligopole peut être compris comme une structure émergente, résultant de dynamiques cumulatives plutôt que d’une stratégie concertée ou de collusions. Cette lecture ne disculpe pas les pratiques anticoncurrentielles lorsqu’elles existent, mais elle démontre que la structure du marché elle-même peut produire de la concentration, indépendamment des intentions des acteurs.
Dans ce cadre, les entreprises dominantes apparaissent comme des hubs économiques : elles concentrent les flux, l’information et l’attention, tandis qu’une multitude d’acteurs périphériques coexistent dans une longue traîne.
Appliqué aux marchés, le mécanisme d’attachement préférentiel est intuitif. Les entreprises déjà bien établies attirent plus facilement de nouveaux clients, car elles bénéficient d’une notoriété plus élevée, d’un réseau de distribution plus dense ou d’une base d’utilisateurs existante. Chaque nouveau client renforce leur position et accroît encore leur attractivité relative.
Ce processus est particulièrement puissant lorsque les choix des consommateurs sont influencés par des signaux sociaux : recommandations, classements, parts de marché visibles, effets de réputation. Dans ces conditions, la probabilité de choisir un acteur dépend non seulement de ses caractéristiques intrinsèques, mais aussi de sa position actuelle dans le réseau. La conséquence est une dynamique de concentration progressive, où quelques acteurs captent une part croissante du marché, sans qu’il soit nécessaire d’invoquer des comportements anticoncurrentiels explicites.
Les rendements croissants jouent un rôle central dans cette dynamique. Lorsqu’une entreprise bénéficie d’économies d’échelle, le coût moyen diminue avec la taille, ce qui renforce l’avantage des acteurs déjà dominants. De même, les effets de réseau font que la valeur d’un produit ou d’un service augmente avec le nombre d’utilisateurs, comme c’est le cas pour les plateformes numériques, les systèmes de paiement ou les standards technologiques. Dans un tel contexte, l’attachement préférentiel est renforcé par des mécanismes économiques tangibles. Les nouveaux entrants ne se heurtent pas seulement à la notoriété des acteurs en place, mais aussi à des désavantages structurels. La concentration devient alors auto-entretenue.
Ces mécanismes expliquent pourquoi de nombreux marchés tendent vers des structures oligopolistiques stables, dominées par un petit nombre d’acteurs, tandis que la concurrence se joue essentiellement à la périphérie.
Cette lecture ne disculpe pas les pratiques anticoncurrentielles lorsqu’elles existent, mais elle rappelle que la structure du marché elle-même peut produire de la concentration, indépendamment des intentions des acteurs.
Reconnaître le caractère structurel des oligopoles ne conduit pas au fatalisme. Les extensions du modèle de Barabási–Albert montrent que des mécanismes tels que les coûts, le vieillissement, la saturation ou la régulation peuvent modérer la concentration et favoriser le renouvellement des acteurs dominants.
La question centrale devient alors celle du design institutionnel : comment introduire des frictions, des limites ou des incitations qui préservent les bénéfices des réseaux tout en évitant une concentration excessive et durable ? Cette interrogation dépasse le cadre de cette note, mais elle souligne l’intérêt pratique d’une compréhension fine des dynamiques à l’œuvre.
La théorie de l’équilibre général, formalisée par Walras puis par Arrow et Debreu, repose sur un ensemble d’hypothèses fortes : agents atomistiques, interactions indirectes via les prix, rendements non croissants, information parfaitement diffusée et marchés complets. Dans ce cadre abstrait, et bien loin des réalités empiriques, l’économie converge vers un état d’équilibre unique, stable et efficient au sens de Pareto.
Cette construction repose en particulier sur une vision très particulière de la structure des interactions économiques, implicitement lisse, homogène et faiblement hiérarchisée. L’introduction des lois de puissance et des structures en réseau, bien plus réalistes, remet en cause profondément ces hypothèses, comme nous allons le voir.
Dans de nombreux marchés réels — financiers, culturels, industriels — les agents ne sont ni équivalents ni interchangeables. Quelques acteurs concentrent parts de marché, information, liquidité ou attention. Ces configurations correspondent à des réseaux hautement hétérogènes, souvent de type scale-free, incompatibles avec l’hypothèse d’agents de taille négligeable. Dans ces systèmes, les interactions ne passent plus uniquement par les prix, mais par des liens directs : imitation, réputation, dépendance technologique, exposition financière. L’économie n’est plus un ensemble d’agents isolés coordonnés par un système de prix abstrait, mais un réseau d’interactions asymétriques. Concernant les prix eux-mêmes les entreprises dominantes sont des price makers et les autres (la grande majorité des price takers.
Les lois de puissance émergent précisément lorsque le succès passé augmente la probabilité du succès futur. Effets de réseau, économies d’échelle dynamiques, visibilité cumulative introduisent des rendements croissants endogènes, explicitement exclus par hypothèse dans les modèles standards d’équilibre général. Dans les marchés financiers, la liquidité attire la liquidité ; dans les oligopoles, la taille attire la taille. Ces mécanismes produisent des dynamiques de concentration auto-renforcées qui éloignent structurellement le système de l’équilibre concurrentiel.
Lorsque les interactions sont non linéaires et les rendements croissants, l’unicité et la stabilité de l’équilibre ne sont plus garanties. Les systèmes peuvent présenter des équilibres multiples, des transitions brutales et des phases d’instabilité persistante. La formation d’oligopoles comme celle des bulles financières vues au chapitre précédent apparaissent alors non comme des anomalies temporaires, mais comme des états dynamiques endogènes du système. L’équilibre cesse d’être un attracteur naturel et devient, au mieux, une configuration locale et transitoire.
Comme on l’a vu, dans les systèmes dominés par des lois de puissance, la moyenne ne décrit plus le système. Une minorité d’acteurs ou d’événements détermine l’essentiel des résultats globaux. Or l’équilibre général repose sur des agrégations supposées représentatives des comportements microéconomiques et des comportements moyens, qui deviennent trompeurs lorsque les distributions sont dominées par leurs extrêmes. L’agent représentatif26, pilier implicite de nombreux raisonnements d’équilibre, perd toute pertinence analytique.
L’hypothèse d’efficience des marchés (Efficient Market Hypothesis, EMH), formalisée par Eugene Fama, affirme que les prix des actifs incorporent instantanément toute l’information disponible. Elle repose sur des hypothèses proches de celles de l’équilibre général : diffusion parfaite de l’information, agents rationnels, rendements distribués normalement, trajectoires assimilables à un mouvement brownien.
L’approche par les lois de puissance et les réseaux invalide cette hypothèse sur plusieurs plans fondamentaux. Dans un marché structuré en réseau, l’information ne se diffuse pas instantanément mais localement, le long de liens sociaux, institutionnels et technologiques. Certains acteurs jouent le rôle de hubs informationnels, générant délais, amplifications et contagions. Les rendements financiers présentent des queues épaisses : les événements extrêmes ne sont ni rares ni négligeables, mais structurants. Les prix dépendent de leur propre histoire : dans les modèles à attachement préférentiel, la performance passée accroît la probabilité de succès futur. Les bulles deviennent endogènes, non accidentelles.
Dans les systèmes en loi de puissance, l’instabilité n’est pas un dysfonctionnement temporaire, mais une propriété structurelle. Les marchés sont robustes aux petits chocs, mais fragiles aux perturbations touchant les acteurs centraux. Cette asymétrie est incompatible avec une vision d’équilibre informationnel global. Les lois de puissance et les réseaux remettent en cause fondamentalement l’équilibre général ou l’efficience comme représentations plausibles de la réalité économique. Dans des économies dominées par l’hétérogénéité, l’histoire et les interactions directes, l’équilibre devient local, instable et contingent. L’économie apparaît fondamentalement hors équilibre.
Les lois de puissance montrent que la concentration, les hubs et la longue traîne sont la norme, pas l’exception. Elles rappellent que :
Cette perspective est particulièrement pertinente pour les marchés numériques, culturels, technologiques, pharmaceutiques…, où la visibilité, la prescription et les effets cumulatifs structurent la distribution des résultats. Elle invite à repenser la manière dont les ressources, l’attention, le succès économique et la diffusion des innovations se concentrent dans les systèmes modernes, en intégrant à la fois les mécanismes d’auto-renforcement et les qualités propres des produits ou des acteurs.
Alain Grandjean
NOTES
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎The post Loi de Pareto, bulles financières et oligopoles. La révolution des lois de puissance en économie appeared first on Chroniques de l'Anthropocène.
27.01.2026 à 17:06
Alain Grandjean
Cette note vise d’une part à expliquer comment la blockchain a transformé la finance en passant du bitcoin aux stablecoins, et d’autre part en quoi il ne s’agit pas d’une…
The post La tokénisation de la finance et les enjeux de l’euro numérique appeared first on Chroniques de l'Anthropocène.
Cette note1 vise d’une part à expliquer comment la blockchain a transformé la finance en passant du bitcoin aux stablecoins, et d’autre part en quoi il ne s’agit pas d’une simple évolution technologique mais d’une mutation considérable, qui comporte des risques massifs en termes de stabilité financière, de souveraineté numérique2 et en termes démocratiques et géopolitiques. L’euro numérique voulu par l’UE est une tentative pour limiter l’ampleur de ces risques.
Les acteurs économiques ne peuvent échanger des valeurs que s’ils sont assurés que les transactions seront correctement enregistrées, exécutées et respectées. Dans le système financier traditionnel, cette confiance est externalisée à divers acteurs ou institutions —banque centrale, banques commerciales, chambres de compensation, dépositaires centraux de titres, réseaux de paiement, etc. Ces acteurs jouent plusieurs rôles clés. Ils enregistrent les soldes et transferts d’actifs, assurent la validité des transactions et la couverture des risques (ex. contreparties). Les rôles sont donc bien répartis : les banques centrales détiennent et créent la monnaie fiduciaire et assurent la liquidité en dernier ressort ; les banques commerciales opèrent sur le marchés, gèrent les dépôts et crédits et créent la monnaie scripturale ; les infrastructures de marché gèrent les échanges et les règlements-livraisons.
Cependant, cette organisation rencontre des limitations. Elle engendre des coûts et délais liés à la présence de multiples intermédiaires (de la transaction à la compensation) ; en particulier, les transferts de valeurs internationaux peuvent être coûteux et lents, surtout en dehors des heures bancaires locales. La multiplicité des registres (comptes internes des banques, registres centraux des titres, etc.) crée des duplications de données et des processus de réconciliation coûteux. Elle ne met pas à l’abri les économies d’un risque de défaillance systémique lorsque l’un de ces acteurs fait défaut ou est victime de cyberattaques. Et pour finir, elle a conduit à une concentration de pouvoir dans un petit nombre de systèmes de paiement et de banques, souvent localisés hors Europe (ex. les réseaux de paiement dominants et leurs infrastructures sont américains ou contrôlés par eux – Visa, Mastercard, American express, Paypal, Apple pay, Stripe3, Swift4, etc.) ce qui pose des défis de souveraineté pour des zones économiques comme l’Union européenne, qui cherchent à réduire leur dépendance à ces infrastructures et entreprises.
En résumé, le système actuel fonctionne parce que les intermédiaires inspirent confiance et que les règles sont bien établies, mais ils accroissent les coûts, ralentissent les transactions, concentrent les risques et posent des défis de souveraineté à l’Union européenne Rappelons aussi qu’il fonctionne aussi parce que la Banque Centrale est le “prêteur en dernier ressort” des banques commerciales, ce sur quoi nous reviendrons plus loin.
La blockchain, ou « chaîne de blocs », est une technologie informatique qui permet d’enregistrer des transactions ou des données de manière sécurisée, transparente et distribuée sans qu’un organe central de contrôle n’en soit responsable. Concrètement, il s’agit d’un registre numérique collectif, partagé entre de nombreux participants (ou « nœuds ») à travers un réseau informatique mondial.
Chaque bloc de données contient un ensemble de transactions, une empreinte cryptographique (hash) et un lien vers le bloc précédent, ce qui donne une chaîne continue de données qui est pratiquement immuable une fois validée par le réseau. La blockchain repose sur quelques principes clefs. La décentralisation : aucune autorité centrale n’a le contrôle unique du registre ; la confiance est “distribuée” entre tous les participants. Le consensus : les participants doivent s’accorder selon des règles définies (ex. preuve de travail ou preuve d’enjeu5) pour valider les nouveaux blocs6. L’Immutabilité : une fois enregistrées, les transactions ne peuvent pas être modifiées sans que cela soit immédiatement visible, ce qui renforce la sécurité et la transparence.
La blockchain, en tant que système de registres distribués sécurisés cryptographiquement, redéfinit la manière de consigner et d’authentifier les transactions, sans intermédiaire “centralisé”.
La blockchain ne se substitue pas sans difficulté aux systèmes centralisés. Tout d’abord, certaines blockchains (comme Bitcoin) sont limitées en capacité de traitement par seconde. Deuxièmement, des mécanismes comme la preuve de travail exigent beaucoup d’énergie (voir note 3).Enfin, plusieurs technologies et formats coexistent, souvent sans compatibilité parfaite. L’interopérabilité n’est pas assurée à ce stade.
La blockchain est une infrastructure technologique pouvant réduire certains coûts et risques de l’écosystème financier, mais elle n’est pas une panacée et nécessite des adaptations pour des systèmes à grande échelle.
Le premier crypto-actif, Bitcoin, apparaît en 2008 dans un contexte de crise financière mondiale, marqué par une défiance profonde envers les banques et les autorités monétaires. Le projet, présenté par un auteur pseudonyme (Satoshi Nakamoto), vise à proposer un système de paiement électronique “peer to peer”, sans intermédiaire central. Bitcoin combine plusieurs innovations : une blockchain publique comme registre de transactions, une “monnaie” native (le bitcoin), un mécanisme de consensus (“preuve” de travail7) garantissant l’intégrité du système.
Les émissions de Bitcoins8 (BTC) sont plafonnées, dès sa création, à 21 Millions de BTC9. Concrètement, posséder un bitcoin signifie détenir la clé cryptographique privée permettant de le dépenser. Cela nécessite un portefeuille numérique spécifique (un “crypto-wallet”), mais pas de compte bancaire particulier.
L’ambition initiale était avant tout monétaire et politique : créer une monnaie indépendante des États, supposée insensible à l’inflation et aux faillites bancaires. Bitcoin n’était pas seulement une innovation technologique, mais était présenté comme une critique du système monétaire existant. Aujourd’hui, la communauté pro-Bitcoin reste très active et diversifiée, regroupant des investisseurs, développeurs, partisans idéologiques et passionnés de technologie. Elle défend l’idée d’une monnaie libre et décentralisée, indépendante des banques centrales et des gouvernements, en accord avec la philosophie originelle de Satoshi Nakamoto. Cette communauté se retrouve sur des forums comme Bitcointalk, Reddit, et Twitter/X, participe à des “meetups”, conférences et hackathons, et diffuse des contenus éducatifs via des blogs, podcasts et newsletters spécialisés. Au-delà de l’investissement, elle promeut la souveraineté financière individuelle, la résistance à la censure et la protection de la vie privée, considérant Bitcoin comme un outil pour préserver la liberté économique à l’ère numérique.
Dans les faits, Bitcoin n’est qu’un actif spéculatif, très volatile. Depuis sa création, sa valeur était de quelques centièmes de dollar en 2010, elle a franchi le cap des milliers puis des dizaines de milliers de dollars au cours des années suivantes, dépassant les 125 000 $ par unité10 en 2025, pour ensuite connaître des variations très importantes. Il est en outre utilisé11 pour des activités criminelles et/ou illégales comme le blanchiment d’argent, la fraude, les paiements sur le dark web, le ransomware et l’évitement fiscal.
L’expérience monétaire de Bitcoin est un échec prévisible : sa rareté monétaire ne borne pas sa valeur mais uniquement la quantité d’unités. Comme pour l’or, cette rareté peut coexister avec une valorisation théoriquement illimitée. Bitcoin ne peut pas ajuster sa masse monétaire aux besoins de l’économie, ce qui en fait un actif rare rigide plutôt qu’une monnaie stabilisatrice; il est d’autre part bien trop volatile pour jouer un rôle de monnaie. A cela s’ajoute enfin une opacité12 sur les flux et les détenteurs des bitcoin.
En 2015, le lancement d’Ethereum marque un tournant décisif. Contrairement à Bitcoin, Ethereum n’est pas conçu principalement comme une monnaie, mais comme une plateforme de programmation décentralisée permettant d’exécuter des “smart contracts”.
Les smart contracts sont des programmes informatiques inscrits sur la blockchain, exécutés automatiquement et déclenchés lorsque des conditions prédéfinies sont remplies.
Cela ouvre la voie à une finance programmable, dans laquelle les règles contractuelles sont automatisées, les intermédiaires sont partiellement remplacés par du code et les actifs et flux financiers peuvent être combinés et orchestrés de manière fine.
Ce modèle donne naissance à la finance décentralisée (DeFi), sous-ensemble de la finance programmable dans lequel les services financiers sont entièrement automatisés via des smart contracts sur une blockchain publique, sans intermédiaires centralisés, accessibles à tous et transparents. La DeFi fonctionne essentiellement avec des crypto-actifs, en dehors du cadre réglementaire traditionnel, ce qui limite son intégration dans l’économie réelle.
On peut en donner quelques exemples : les prêts décentralisés (dépôts de crypto-actifs et emprunts sans banque), les échanges décentralisés (DEX), les transactions instantanées entre utilisateurs, sans intermédiaire, les assurances automatisées (paiement automatique en cas d’événement spécifique (ex. retard d’avion)), les stablecoins -voir encadré plus loin- (des cryptomonnaies dont la valeur est stabilisée automatiquement par des smart contracts).
NB La DeFi en tant que protocole n’est pas encore directement régulée en Europe, mais les régulateurs encadrent les intermédiaires et services qui lui donnent accès, ainsi que certaines catégories de tokens (stablecoins, tokens financiers). Avec l’arrivée du règlement MiCAR13 et des régulations AML (lutte contre le blanchiment), l’Europe commence à poser un cadre autour de la DeFi, sans pour autant contrôler complètement les protocoles décentralisés.
Avec la diversification des usages, le terme générique de « cryptomonnaies », initialement déjà contestable (voir le paragraphe sur le bitcoin), devient insuffisant et inadéquat. On distingue désormais les “cryptomonnaies” natives (Bitcoin, Ether), les stablecoins, adossés à une monnaie fiduciaire (souvent le dollar), les Tokens utilitaires, donnant accès à un service et les Security tokens, représentant des instruments financiers.
Cette diversité montre que la blockchain n’est plus seulement un outil monétaire alternatif, mais un nouvel espace de représentation de la valeur et de transactions.
En France ces cryptoactifs sont l’objet de réglementations spécifiques.
La tokenisation consiste à représenter un actif — financier ou réel — sous la forme d’un jeton (token) inscrit sur une blockchain. Ce token incarne un droit économique ou juridique : propriété, créance, droit à un flux futur. Les actifs concernés peuvent être des actions, des obligations, des parts de fonds et des actifs réels (immobilier, matières premières).
Contrairement à une simple dématérialisation, la tokenisation repose sur un registre unique partagé, une programmabilité des droits et une traçabilité complète des transferts.
La tokenisation vise à refondre l’infrastructure de marché, pas à créer de nouveaux actifs plus ou moins exotiques. Elle promet plusieurs gains. La réduction des délais de règlement-livraison (quasi instantané14), la baisse des coûts post-marché15, le fractionnement des actifs16, facilitant l’accès des investisseurs et une liquidité accrue sur certains marchés traditionnellement peu liquides17.
Pour les institutions financières, elle permet d’envisager un modèle plus intégré, où l’émission, la négociation et le règlement s’opèrent sur une même infrastructure numérique.
Contrairement à une idée répandue, la tokenisation n’est pas portée uniquement par des acteurs « crypto-natifs ». De grandes banques, gestionnaires d’actifs et infrastructures de marché expérimentent des obligations tokenisées, des dépôts bancaires tokenisés et des plateformes de règlement sur blockchain.
Cependant, ces initiatives reposent majoritairement sur des blockchains “permissionnées” (c’est-à-dire à accès restreint et réservée à des participants autorisés, voir encadré ci-après ), compatibles avec les exigences réglementaires.
La tokenisation avance donc maintenant moins comme une rupture que comme une hybridation progressive entre finance traditionnelle et technologies blockchain.
| Qu’est-ce qu’une blockchain permissionnée ? Une blockchain permissionnée (ou registre distribué à accès restreint) est une infrastructure numérique de type blockchain dans laquelle l’accès au réseau, la validation des transactions et la gouvernance sont réservés à des acteurs identifiés et autorisés. Contrairement aux blockchains publiques ouvertes (comme Bitcoin ou Ethereum), où tout participant peut librement consulter le registre, soumettre des transactions ou valider des blocs de manière pseudonyme, une blockchain permissionnée repose sur un contrôle préalable des participants. Ceux-ci sont généralement des institutions financières, des infrastructures de marché, des prestataires agréés ou des autorités publiques, soumis à des obligations réglementaires et contractuelles. Sur le plan technique, une blockchain permissionnée conserve les principales caractéristiques de la technologie blockchain. C’est un registre partagé et distribué entre plusieurs acteurs, les écritures sont traçables et immuables. Elle utilise la cryptographie pour garantir l’intégrité des données et il est possible d’automatiser certaines règles via des smart contracts. En revanche, elle se distingue par ses modalités de fonctionnement. Le consensus n’est pas assuré par des mécanismes ouverts (minage ou preuve d’enjeu), mais par un accord entre participants autorisés (par exemple par quorum18 ou preuve d’autorité). La gouvernance est formalisée (règles écrites, responsabilités identifiées, procédures de gestion des incidents). Enfin, la transparence est sélective : chaque participant n’accède qu’aux informations nécessaires à son rôle, ce qui permet de respecter la confidentialité commerciale et les exigences de protection des données. Ces caractéristiques rendent les blockchains permissionnées compatibles avec les exigences réglementaires de la finance, notamment en matière de connaissance du client (KYC) et lutte contre le blanchiment et le financement du terrorisme (AML/CFT19), de responsabilité juridique et de supervision prudentielle, de protection des données (Règlement Général sur la Protection des Données) et de finalité juridique des transactions. C’est pour ces raisons que les banques centrales, les banques commerciales et les autorités de marché privilégient aujourd’hui les blockchains permissionnées pour les expérimentations liées à la tokenisation des actifs, au règlement-livraison sur registre distribué ou aux monnaies numériques de banque centrale de gros. Elles constituent ainsi un compromis institutionnel entre l’innovation technologique portée par la blockchain et les contraintes fondamentales de stabilité, de sécurité et de souveraineté propres aux systèmes financiers réglementés. |
La tokenisation des actifs pose une question fondamentale : avec quelle monnaie règle-t-on les transactions tokenisées ? Elle suppose en effet l’existence d’une monnaie de règlement numérique, stable et intégrée au même registre que les actifs échangés. Ni les crypto-actifs volatils comme le bitcoin, ni la monnaie scripturale traditionnelle, qui n’existe pas sur blockchain, ne répondent à cette exigence.
Dans ce contexte, les stablecoins privés – principalement libellés en dollars – (voir encadré) se sont imposés comme solution de fait pour le règlement des transactions tokenisées, ce au prix d’une dépendance accrue à des instruments privés et à la monnaie américaine.
| Qu’est ce qu’un stablecoin ? Un stablecoin est un cryptoactif conçu pour maintenir une valeur stable, généralement en étant indexé sur une monnaie fiduciaire, comme le dollar ou l’euro, ou sur un panier de monnaies20. En pratique : 1 stablecoin ≈ 1 dollar (ou 1 euro).Il existe plusieurs modèles, mais le plus répandu est le stablecoin adossé à des réserves. Exemple (simplifié) : une entreprise émet 1 million de stablecoins, elle détient en contrepartie des dollars ou des actifs liquides équivalents. Les utilisateurs de stablecoins partent du principe qu’un stablecoin peut être échangé à tout moment et sans risque contre un dollar. Nous verrons toutefois que cette hypothèse constitue l’un des principaux problèmes posés par les stablecoins : les opportunités de gains pour les émetteurs sont d’autant plus importantes qu’ils prennent des risques, lesquels ne sont pas strictement encadrés par le Genius Act. Si ce cadre réglementaire impose certaines exigences de transparence et de gestion des réserves, il laisse une marge de manœuvre significative quant à leur composition et à leur liquidité et ne prévoit ni garantie publique ni mécanisme de soutien en cas de crise. On y revient plus loin (voir § 6.1).Les deux stablecoins les plus utilisés aujourd’hui sont USDT (Tether) et USDC (Circle). Les stablecoins sont utilisés pour la tokenisation parce qu’ils combinent trois qualités clés, une valeur a priori stable (contrairement au bitcoin), un format natif blockchain (programmable, rapide) et une liquidité élevée sur les plateformes numériques. Ils jouent donc le rôle de monnaie de règlement numérique dans l’univers blockchain. La valeur des stablecoins en circulation début 2025 dépasse 300 milliards de dollars en 2025 ; c’est donc à ce stade marginal par rapport à la masse de monnaie scripturale “ordinaire” qui se mesure en milliers de milliards de dollars. Notons enfin que les stablecoins sont réglementés aux USA par le Genius Act et en Europe par le MiCAR aux objectifs différents. |
La tokenisation est parfois présentée comme une solution technique capable de réduire, voire d’éliminer, certains risques financiers. En réalité, elle ne supprime pas le risque, mais en déplace la nature et la localisation.
Dans le système traditionnel, les risques sont concentrés dans les intermédiaires (banques, chambres de compensation), et dans des infrastructures identifiées et fortement régulées.
Dans un système tokenisé, apparaissent des risques technologiques (failles de code, cyberattaques), opérationnels (gestion des clés cryptographiques, dépendance à des prestataires techniques) et juridiques (qualification des droits attachés aux tokens). Des risques financiers subsistent bien sûr : comme déjà dit, la valeur du BTC est volatile. De même les stable coins sont sujets aux variations de l’USD / actifs US qui en garantissent la valeur ce qui pose problème pour les détenteurs non US.
Donc si la blockchain permet de réduire certains risques de fraude ou d’erreur comptable, elle en introduit de nouveaux, souvent moins familière aux régulateurs et aux acteurs financiers traditionnels.
Les infrastructures de tokenisation reposent sur des éléments techniques complexes : protocoles blockchain, smart contracts, “oracles” (ponts entre données du monde réel et blockchain21), solutions de conservation numérique (custody).
Les smart contracts, en particulier, posent un problème fondamental : une fois déployés, ils sont difficiles à modifier sans remettre en cause l’immutabilité du système.
Des erreurs de code peuvent donc entraîner des pertes financières irréversibles, des comportements non anticipés et des arbitrages difficiles entre sécurité juridique et intégrité technique.
Par ailleurs, la gestion des clés cryptographiques — équivalent fonctionnel de la propriété — constitue un défi majeur pour des institutions habituées à des mécanismes de contrôle centralisés et réversibles.
La tokenisation remplace donc bien des risques humains et organisationnels par des risques techniques et informatiques, sans réduire les risques financiers.
Un autre défi majeur concerne le cadre juridique applicable aux actifs tokenisés. Plusieurs questions restent ouvertes. Un token constitue-t-il un titre financier, une créance, un bien numérique ? Quel droit national s’applique à un registre distribué par nature transfrontalier ? Comment gérer les litiges ou les erreurs de transaction irréversibles ?
En Europe, des initiatives comme le régime pilote DLT22 cherchent à tester des cadres adaptés, mais la tokenisation évolue plus vite que le droit. Cette situation crée des risques de fragmentation réglementaire, d’arbitrage juridique et d’incertitude pour les investisseurs institutionnels.
Le risque le plus structurant n’est cependant pas technologique ou juridique, mais monétaire.
Dans un système tokenisé, plusieurs formes de monnaie peuvent coexister, la monnaie de banque centrale (sous forme classique), les dépôts bancaires tokenisés, les stablecoins privés et les monnaies numériques étrangères (voir plus loin, le cas le l’euro numérique).
Cette multiplicité peut conduire à une fragmentation des liquidités, des inefficiences de marché et des tensions en période de stress financier.
Sans un actif de règlement commun, sûr et universel, la tokenisation risque d’aboutir à un système plus complexe et potentiellement moins stable que celui qu’elle prétend améliorer.
C’est précisément ce vide monétaire que les stablecoins privés ont cherché à combler.
Les stablecoins sont des crypto-actifs conçus pour maintenir une valeur stable, généralement indexée sur une monnaie fiduciaire. Dans la pratique, la quasi-totalité des stablecoins significatifs est adossée au dollar américain et ne sont pas sans risques contrairement à leur dénomination et à des idées reçues.
Dans l’écosystème de la finance tokenisée, les stablecoins jouent un rôle clé, de monnaie de règlement des transactions sur blockchain, de réserve de valeur temporaire pour les investisseurs et de pont entre la finance traditionnelle et les marchés crypto. Surtout, ils permettent de résoudre un problème pratique immédiat : disposer d’un actif numérique stable, programmable et liquide.
Les stablecoins constituent une forme de dollar numérique privé23, émis non par la Réserve fédérale, mais par des entreprises privées, souvent basées aux États-Unis.
Cette situation présente plusieurs implications. Elle étend l’influence internationale du dollar24, sans action directe des autorités américaines. Elle contourne partiellement les systèmes bancaires traditionnels et augmente la dépendance à des émetteurs privés pour la liquidité numérique mondiale.
Les stablecoins deviennent ainsi une infrastructure monétaire de fait, sans disposer des garanties classiques associées à la monnaie de banque centrale (prêteur en dernier ressort, garantie publique explicite) et sans les contrôles nécessaires réduisant les risques de faillites des émetteurs et les “ruées25 sur les réserves” en cas de perte de confiance. La stabilité des stablecoins peut donc être ébranlée dans les crises. Et même des faibles variations du prix des stablecoins peuvent déclencher une crise financière26. Si les stablecoins commencent à avoir un usage massif, ces crises seront beaucoup plus fortes (voire systémiques). Cela s’avérera particulièrement difficile pour les pays du Sud Global (le Nigeria, par exemple, utilise massivement les stablecoins). Comme l’écrit l’économiste Eric Monnet :
“De très nombreux travaux ont insisté sur les risques financiers importants que posent les stablecoins27. En effet, un détenteur de stablecoins peut vouloir l’échanger contre une monnaie de référence. Si un doute sur la fiabilité d’un émetteur de stablecoin survient et que tous les détenteurs demandent en même temps à procéder à cet échange, il existe alors un risque similaire à celui d’une ruée au guichet. En pratique, il est possible de limiter ce risque en obligeant les détenteurs de stablecoins à détenir des actifs très sûrs et liquides. Mais ces actifs sont généralement peu rémunérateurs. Moins la réglementation est contraignante et plus les émetteurs chercheront à détenir une partie d’actifs plus rémunérateurs, plus risqués et moins liquides, qui peuvent se révéler insuffisants en cas de ruée au guichet.”
Au-delà de la monnaie elle-même et de sa tokénisation, la finance numérique repose sur un empilement d’infrastructures largement dominées par des acteurs américains qui contrôlent totalement ou partiellement, les réseaux de paiement internationaux, la fourniture de clouds, l’édition de logiciels critiques et les matériels et semi-conducteurs.
Cette dépendance pose des enjeux stratégiques majeurs pour l’Europe. Elle est vulnérable aux sanctions extraterritoriales, exposée aux décisions réglementaires américaines et perd sa maîtrise sur les données financières sensibles.
Dans un contexte de finance tokenisée, ces dépendances sont amplifiées, car les infrastructures numériques deviennent le cœur même du système financier.
Du point de vue des autorités européennes, les stablecoins soulèvent trois préoccupations majeures. Comme on vient de le dire tout l’abord celle de la stabilité financière avec le risque de ruée sur les réserves en cas de crise de confiance. Deuxièmement, celle de la transmission de la politique monétaire, les stablecoins faisant concurrence potentielle avec la monnaie officielle. Enfin la souveraineté est menacée du fait d’une dépendance accrue à des instruments privés étrangers.
La généralisation des stablecoins pourrait recomposer le pouvoir monétaire au profit d’acteurs privés et, indirectement, d’une zone monétaire étrangère.
Il existe déjà plusieurs monnaies numériques de banque centrale (MNBC ou CBCD en anglais) : la Chine a lancé une phase expérimentale pour son digital yuan ou e-CNY, tout comme l’Inde et des dizaines de pays. Quelques (petits ) pays sont en phase pleinement opérationnelle. Donald Trump a quant à lui interdit l’établissement, l’émission ou la promotion d’une MNBC pour l’Amérique par l’executive order 14178 .
L’euro numérique est un projet28 de MNBC émis par l’Eurosystème, destiné au public et utilisable comme moyen de paiement. Il ne s’agit ni d’une cryptomonnaie au sens de Bitcoin, ni d’un stablecoin, ni d’un simple outil de paiement privé, mais d’une forme numérique de la monnaie centrale, garantie par la Banque centrale européenne. Cette monnaie complèterait les espèces (la monnaie fiduciaire en circulation actuellement, non scripturale). Elle offrirait, contrairement à la monnaie scripturale (qui est une monnaie bancaire, juridiquement une créance sur une banque, pâtissant d’un risque de contrepartie, la faillite de cette banque) la garantie d’une monnaie centrale (qui est une créance sur la Banque centrale, pas exposée au risque de faillite29 d’une banque privée). En résumé, ce serait une monnaie fiduciaire numérique.
L’euro numérique pourrait par ailleurs être utilisé « on-chain30 » sur des registres distribués privés ou blockchains permissionnées pour certaines opérations institutionnelles ou expérimentales. Techniquement, cette opération se ferait via des représentations tokenisées sur des blockchains permissionnées. Les banques ou Prestataires de Services de Paiement créent ces tokens à partir de leur solde de MNBC à la BCE, et les transferts sont effectués par des instructions informatiques validées sur le registre distribué. Chaque token correspond à 1 euro numérique réel et reste entièrement encadré et garanti par la BCE.
NB :
Trois motivations principales expliquent l’engagement de la BCE dans ce projet. Elle souhaite d’abord préserver le rôle de la monnaie publique. Dans un environnement où les paiements se numérisent, les espèces reculent et les stablecoins privés se développent, il existe un risque que les citoyens n’aient plus accès directement à une monnaie publique sûre. L’euro numérique vise à maintenir ce lien direct entre la banque centrale et le public. Elle souhaite deuxièmement fournir une monnaie de règlement pour la finance tokenisée. Comme montré dans les chapitres précédents, la tokenisation des actifs exige une monnaie de règlement numérique, sûre et programmable. Sans euro numérique (ou équivalent), le risque est de voir les stablecoins en dollars s’imposer durablement comme standard de règlement dans la finance européenne. Elle souhaite enfin renforcer la souveraineté monétaire européenne. L’euro numérique s’inscrit dans une réflexion plus large sur l’autonomie stratégique, la résilience des infrastructures critiques et la réduction des dépendances extra-européennes.
Concernant l’architecture envisagée, la BCE privilégie une approche clairement prudente et qui tient compte des pressions des groupes d’acteurs concernés, à commencer par les banques.
a) Maintien de “l’Intermédiation bancaire”
L’euro numérique ne serait pas détenu directement auprès de la BCE, mais distribué via les banques et prestataires de paiement, afin de préserver le rôle du système bancaire et en fait son modèle économique. Concrètement les particuliers disposeraient d’un portefeuille en euro numérique (plafonné, à ce stade les montants évoqués se situent dans la fourchette 1000 à 3000 euros pour les particuliers), qui serait principalement alimenté par conversion d’euros scripturaux détenus sur un compte bancaire classique. Cette conversion serait opérée par des banques ou prestataires de services de paiement agréés, faisant l’interface entre les clients et la BCE. Le particulier ne détiendrait pas un compte direct à la banque centrale, mais une créance en monnaie centrale numérique accessible via un portefeuille.
b) Respect et encadrement de la confidentialité
La protection de la vie privée est un enjeu central. Le dispositif doit garantir la confidentialité des paiements de faible montant, la conformité aux exigences de lutte contre le blanchiment et un juste équilibre entre anonymat et traçabilité. A noter que ce n’est pas du tout le cas en Chine où le pouvoir n’hésite pas à tracer les flux monétaires à des fins de contrôle social et politique.
La BCE se montre réticente à une programmabilité trop large de la monnaie, qui pourrait conduire à des transgressions des dogmes monétaires (voir le module monnaie de The other economy), neutralité monétaire et monétisation de certaines dépenses publiques. Elle craint aussi les risques de fragmentation.
Au total, s’il est bien souhaitable que l’euro numérique garde l’essence de la monnaie, qui est le fait d’être un pouvoir universel d’achat, l’architecture proposée par la BCE ne vise pas en faire un outil d’ingénierie sociale ou financière, ce qu’il pourrait devenir. Nous y reviendrons en conclusion de cette note.
Le projet d’euro numérique est soutenu par la BCE, la Commission européenne et plusieurs États membres, qui y voient un outil de souveraineté monétaire face à la domination des des infrastructures numériques et moyens de paiement privés américains ou contrôlés par les américains (Visa, Mastercard etc.-voir §1- et maintenant stablecoins). Certains think tanks européens et experts31 appuient également l’initiative, estimant qu’elle permettrait de moderniser les paiements tout en garantissant un moyen de paiement public et sécurisé.
Mais l’euro numérique ne fait pas l’unanimité au sein de la zone euro et suscite des oppositions et des réserves de la part de plusieurs acteurs.
Certains responsables politiques, notamment parmi les courants conservateurs et eurosceptiques, craignent qu’il ne porte atteinte à la vie privée des citoyens, en facilitant la traçabilité des paiements. La défense des billets est clairement ambivalente32 : certes le cash limite des risques contrôles inappropriés pour les “honnêtes gens”, mais c’est un moyen très utile pour le blanchiment d’argent, l’évitement fiscal et les activités criminelles.
Les banques commerciales perçoivent l’euro numérique comme une menace structurelle pour leur modèle économique33. En offrant aux ménages la possibilité de détenir une créance directe sur la BCE, un tel dispositif pourrait entraîner une désintermédiation significative des dépôts, en particulier en période de crise, et modifier en profondeur l’architecture du système bancaire européen. Dans ce contexte, certaines grandes banques ont lancé, dans le cadre de l’European Payments Initiative, le projet Wero, destiné à concurrencer les réseaux de paiement américains et à limiter le risque de perte de souveraineté de la zone euro en matière de paiements. Cette initiative vise également à réduire la nécessité économique et politique d’un euro numérique en tant que moyen de paiement généralisé, si celui-ci venait à être introduit.
Il existe enfin des débats en apparence techniques qui recouvrent en réalité des enjeux économiques, sociaux et politiques majeurs. Le choix entre une MNBC limitée aux acteurs financiers (monnaie de gros) ou accessible au grand public (monnaie de détail) détermine le degré d’implication de la banque centrale dans la vie économique quotidienne et la place laissée aux intermédiaires privés. De même, la possibilité d’un euro numérique utilisable hors ligne ou exclusivement en ligne soulève des questions d’inclusion financière, de résilience des infrastructures de paiement et de protection de la vie privée. Enfin, l’instauration éventuelle de plafonds de détention ou de mécanismes de rémunération différenciée ne constitue pas un simple paramétrage technique : elle conditionne comme on l’a vu l’ampleur de la “désintermédiation bancaire” et impacte les revenus des banques issus de la création monétaire, la transmission de la politique monétaire et, plus largement, l’équilibre des pouvoirs entre banques centrales, banques commerciales et citoyens.
Le débat autour de l’euro numérique reflète enfin des choix politiques, économiques et sociétaux majeurs sur le rôle de l’État, des banques et de la technologie dans la monnaie. En effet, la MNBC rend techniquement possibles des transferts publics directs. Elle pourrait donc servir au versement de prestations sociales, d’aides publiques ou de remboursements fiscaux. Si la BCE se limite à définir une infrastructure monétaire neutre, la Commission et les colégislateurs laissent volontairement ouverts les cas d’usage, qui relèvent de choix politiques nationaux. Ces usages sont néanmoins discutés dans le débat public et académique, car ils soulèvent des questions sensibles de protection des libertés, de rôle de la monnaie et de souveraineté démocratique. Ils ouvrent aussi des perspectives nouvelles en matière de financement des investissements publics indispensables à la transition écologique.
La tokenisation de la finance s’inscrit dans une dynamique de transformation profonde des infrastructures financières, bien au-delà des débats initiaux sur les cryptomonnaies. En proposant de nouveaux modes de représentation, de transfert et de règlement des actifs, elle remet en question l’architecture même du système financier.
Cette évolution apporte des gains d’efficacité (à ce stade hypothétiques), des opportunités d’innovation mais aussi des risques nouveaux, notamment monétaires et systémiques.
Dans ce contexte, les stablecoins privés sont clairement poussés par l’exécutif américain, pour accroître la dépendance au dollar et à des infrastructures non européennes. L’euro numérique apparaît alors non comme une simple réponse technique, mais comme un choix politique et stratégique, visant à préserver la stabilité financière, la souveraineté monétaire et contribuer à l’autonomie technologique européenne. Il pourrait aussi être mobilisé pour le financement des investissements publics de la transition écologique.
L’enjeu central n’est pas de savoir si la finance sera tokenisée — elle l’est déjà en partie — mais qui contrôlera la monnaie et les infrastructures de règlement sur lesquelles elle repose. À cet égard, l’euro numérique constitue une pièce essentielle, quoique non suffisante, d’une stratégie européenne plus large.
Auteur : Alain Grandjean
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎
︎The post La tokénisation de la finance et les enjeux de l’euro numérique appeared first on Chroniques de l'Anthropocène.
22.01.2026 à 19:14
Alain Grandjean
L’électrification de notre énergie est cruciale pour décarboner notre économie et lutter contre le réchauffement climatique, à condition que l’électricité soit produite par des sources bas-carbone. Mais cela pose la question des prix et de leur formation, en particulier pour les EnR et le nucléaire.
The post Coût et prix des sources d’électricité bas-carbone : qui paie quoi ? appeared first on Chroniques de l'Anthropocène.
L’électrification1 de notre énergie est cruciale pour décarboner notre économie et lutter contre le réchauffement climatique, à condition que l’électricité soit produite par des sources bas-carbone, ce qui est le cas en France. Elle est également essentielle pour réduire notre dépendance aux producteurs d’énergie fossile. Elle peut s’appuyer sur un mix de sources décarbonées (le nucléaire et les énergies renouvelables) présentant des avantages et inconvénients, et n’ayant pas les mêmes coûts. Les citoyens, les consommateurs professionnels et particuliers sont prêts à cette mutation, mais pas à n’importe quel prix. Les professionnels sont d’abord sensibles aux enjeux de compétitivité face à des concurrents qui ont accès à une énergie peu chère (en Chine et aux USA en particulier). Pour les particuliers, les questions se posent autrement, en termes de « fin de mois » et/ou d’équité (chacun veut être rassuré sur le fait que les efforts sont partagés).
La première et la plus aiguë des questions économiques se pose ainsi : peut-on envisager une croissance de la part de l’électricité dans la consommation d’énergie finale (via l’électrification des usages) si son prix n’est pas suffisamment attractif ? La réponse dépend bien sûr des prix des autres sources d’énergie (et surtout du gaz pour le chauffage et du pétrole pour le transport) et de celui des équipements nécessaires et de leur efficacité (chaudière, véhicule…).
La note que je présente ici vise surtout à expliquer comment se fixent les prix de l’électricité et répond à plusieurs questions. Quel est le lien entre ces prix et les coûts de production, qui sont, pour les sources bas-carbone, essentiellement fixes2 et liés aux investissements et à leur financement ? Quelles sont les aides et leur coût pour les finances publiques3 ? Quels sont les mécanismes en place aujourd’hui et comment devraient-ils et vont-ils évoluer ? Nous ne discuterons pas ici du fonctionnement du marché de l’électricité ni de son adéquation à une économie de coûts fixes4 (l’électricité bas-carbone repose massivement sur des coûts fixes -équipements de production et réseaux- alors que les coûts variables sont significatifs dans celui de l’électricité d’origine fossile) mais la question est posée par plusieurs experts5. Nous évoquerons néanmoins quelques pistes visant à le compléter.6
Cette note a pour objet de répondre à une deuxième question.
Si l’électricité d’origine nucléaire a longtemps été peu coûteuse, l’ancienneté du parc (et du réseau électrique) obligent à réaliser de lourds investissements (de rénovation du parc, du réseau et dans de nouveaux équipements de production, nucléaires et renouvelables). Mais le nouveau nucléaire est beaucoup plus coûteux que le nucléaire historique (en €/kW il est, en France, de 4 à 7 fois plus cher en euros constants)7. Les renouvelables voient leur coût baisser régulièrement (le LCOE du solaire PV a été divisé par 10 en 20 ans) mais demandent des investissements complémentaires, liés à leur intégration dans le réseau, à leur variabilité et au fait qu’elles ne sont pas pilotables (et le cas échéant à leur décentralisation8). Comment départager les différents mix électriques envisageables à terme ? Les arguments économiques de coût et de prix permettent-ils de le faire ? On verra que pour répondre, il faut raisonner en “coût complet” puis se demander comment assurer que les prix aux consommateurs reflètent ces coûts (tout en tenant compte d’impératifs de compétitivité industrielle).
Ces questions sont déterminantes, dans le contexte actuel, d’une Programmation pluriannuelle de l’énergie (PPE3)9 dont le décret n’est pas encore sorti et qui n’a pas fait l’objet d’un débat éclairé à l’Assemblée nationale.
Plus précisément, début 2023, la ministre de la transition énergétique a lancé 7 groupes de travail associant élus locaux, parlementaires, ONG et professionnels. Une concertation nationale organisée par la CNDP a eu lieu du 4 novembre au 16 décembre 2024, et une consultation publique grand public sur le projet de PPE3 s’est déroulée du 7 mars au 5 avril 2025.
Selon la loi Énergie-Climat de 2019, la loi de programmation nationale pour l’énergie et le climat devait être adoptée avant le 1er juillet 2023. La PPE, constituant le volet réglementaire ou opérationnel déclinant les orientations de cette loi, pouvait être ensuite adoptée par décret. La loi de programmation n’a pas été présentée à temps au parlement.
Le sénateur Jean-François Grémillet a déposé début 2024, une proposition de loi de programmation de l’énergie (souvent appelée “PPL Gremillet”) débattue au Sénat et au Parlement mais qui n’a pas été adoptée. Les assemblées nationales et le Sénat n’ont donc en fait pas débattu d’une loi gouvernementale de programmation « cadrant » la PPE3.
Cette note aborde un sujet vaste et complexe et fournit de nombreux points de repère chiffrés et sourcés. Certaines données ne sont pas faciles d’accès. Malgré de nombreuses vérifications et relectures, des erreurs peuvent encore être présentes. Nous espérons qu’elle suscitera des suggestions et des corrections le cas échéant, y compris des acteurs publics chargés d’éclairer un débat important pour le pouvoir d’achat des français, l’autonomie de la France et le climat.
Elle a a bénéficié des remarques et suggestions de Ange Blanchard, Xavier Blot, Etienne Borocco, Jean-Pierre Gonguet, Stéphane His, Yannick Jacquemart, Etienne Jezioro, Alexandre Joly, Laurent Fournié, Arthur de Lassus, Pierre-Laurent Lucille, Julien Marchal, Paul Neau, Jules Nyssen, Nicolas Ott, Cédric Philibert et les équipes de la CRE que je remercie chaleureusement. Leur responsabilité n’est évidemment pas engagée dans ce document.
La note a été mise à jour en novembre 2025 à la suite de commentaires reçus sur la version 1. Les changements sont identifiés en orange.
Notes
︎
︎
︎
︎
︎
︎
︎
︎
︎Crédit image : Mario Hains – Licence Creative Commons BY-SA 3.0
The post Coût et prix des sources d’électricité bas-carbone : qui paie quoi ? appeared first on Chroniques de l'Anthropocène.
27.11.2025 à 18:21
Marion Cohen
Dans son livre Après la ville, Défis de l’urbanisation planétaire, Pierre Veltz démontre à quel point l’urbanisation est l’un des processus structurants des dernières décennies, non pas seulement en termes d’aménagement du territoire, mais aussi et surtout par ses impacts sociaux, économiques, écologiques. Le fait urbain est au cœur de…
The post Après la ville de Pierre Veltz – Note de lecture appeared first on Chroniques de l'Anthropocène.
Dans son livre Après la ville, Défis de l’urbanisation planétaire, Pierre Veltz démontre à quel point l’urbanisation est l’un des processus structurants des dernières décennies, non pas seulement en termes d’aménagement du territoire, mais aussi et surtout par ses impacts sociaux, économiques, écologiques. Le fait urbain est au cœur de la « Grande accélération » et des processus de bifurcation écologique analysés dans ses derniers livres1. Il nous présente dans ce post les grandes lignes et les principaux enseignements de son ouvrage. Alain Grandjean apporte ensuite sa lecture et ses commentaires.
Tout le monde admet que l’urbanisation est un des phénomènes les plus importants de notre époque et du siècle à venir. Les vitesses de croissance des villes, dans le Sud, sont vertigineuses, alors que Nord est désormais très majoritairement urbain. Mais ce phénomène est souvent traité à part, comme si cette urbanisation était simplement un cadre matériel, une sorte de contenant physique pour des processus plus profonds, plus fondamentaux, traités par les économistes, les sociologues, les politologues, les sciences de l’environnement. Le réflexe des décideurs est d’ailleurs de confier la réflexion sur la ville à des architectes, urbanistes, paysagistes et autres « professionnels du cadre bâti », comme on dit couramment. Lorsque Sarkozy, par exemple, a lancé le projet du Grand Paris, il a commencé par lancer une consultation auprès d’une poignée d’architectes stars, comme si le fait de concevoir de grands bâtiments conférait une compétence particulière pour réfléchir au devenir d’une métropole de 12 millions d’habitants.
Dans Après la ville j’essaie au contraire d’aborder l’urbanisation (le fait urbain, bien au-delà de l’ « urbanisme ») comme l’un des processus fondamentaux de la « Grande Accélération », façonnant de mille manières les processus et les trajectoires de l’économie, de la sociologie, de la politique, de l’écologie.
Prenons l’urbanisation chinoise, longtemps retardée par Mao, avant d’exploser après 2000. Elle a été et reste au cœur d’une mobilisation matérielle sans précédent historique, qui a ouvert un nouveau cycle des marchés de matières premières dans le monde. Mais, au-delà des gigatonnes de ciment et d’acier utilisées, elle est aussi et surtout, par l’ampleur de la migration interne entre campagne et ville, une expérimentation sociale d’ampleur gigantesque. L’urbanisation interagit de manière intime et complexe avec la totalité des composantes de la société et de l’économie, en particulier du fait de la marchandisation et des transformations de modes de vie qui accompagnent toujours la migration vers les villes. Mon approche dans le livre est donc de considérer la « ville » de manière très large, comme la forme spatiale de nos manières d’habiter et de transformer la planète.
Précisément parce que, si on prend cette vision globale, nos catégories traditionnelles sont mises à mal. En particulier, il est de moins en moins pertinent d’opposer les zones de fortes densité, dites « urbaines » aux autres zones moins denses.
L’opposition ville-campagne est très ancienne, historiquement structurante dans la plupart des sociétés. Les villes ont toujours joué un rôle central en termes politiques et culturels mais jusqu’à une date relativement récente, elles pesaient peu dans l’économie et l’’écologie globale.
Aujourd’hui, les interdépendances de toutes natures (économiques, écologiques, sociales, techniques) entre ce qu’on appelait la campagne et la ville dense sont de plus en plus fortes. Elles tissent leur toile à des échelles de plus en plus étendues. Et les convergences entre les modes de vie de la « campagne » et de la « ville » sont profondes. Au cours des dernières décennies, les espaces peu denses ont été transformés autant voire plus que les espaces denses. Dans de larges parties du monde, les ex-campagnes sont aussi industrialisées et globalisées que les villes. Nous avons donc besoin d’une vision globale, holistique de notre usage de l’espace.
Comme d’autres chercheurs, je pense que les fameux « taux d’urbanisation » calculés par l’ONU n’ont pas grande signification, qu’il faut prendre en compte des formes de plus en plus hybrides d’occupation des espaces. Le vrai sujet c’est ce continuum, tous espaces confondus, que certains appellent « urbanisation généralisée ». Le problème est qu’on manque de mots adéquats pour désigner ces formes.
Dans le même temps, il est vrai que les grandes conurbations, gigantesques et souvent chaotiques hubs, nœuds de concentration au sein de vastes maillages, continuent de jouer un rôle majeur. Mais leur dynamique et leur rôle sont très différents de ce qu’ils ont été dans la croissance urbaine du 19ème et du 20ème siècle. Là encore, on manque de mots adéquats. Kinshasa n’est pas Paris ou New York en plus gros, plus chaotique, et (beaucoup) plus pauvre.
J’ai conçu le livre comme un voyage panoramique à travers de multiples dimensions, avec une perspective historique longue. Les dix chapitres peuvent se lire comme des essais relativement indépendants, dans une progression d’ensemble qui aborde trois grandes thématiques inter-reliées : l’économie, l’écologie, le social.
Sur le volet économique, je souligne la place désormais considérable des activités directement liée à l’urbanisation généralisée, à travers des infrastructures matérielles de toutes sortes, au sein des pôles de densité, mais aussi entre ces pôles : jamais l’humanité n’a construit autant de routes, de lignes ferroviaires, d’aéroports, de tunnels, de ponts, sans parler des infrastructures numériques en explosion (réseaux de fibres optiques, satellites, centres de données et de calcul). Industries de la mobilité, du bâtiment, de l’énergie, des télécoms : au moins la moitié de nos économies est dédiée à la « ville » au sens très large que je donne à ce terme
L’autre grand sujet économique est bien sûr celui des rentes foncières et immobilières liées aux espaces les plus convoités des pôles métropolitains, rentes qui ont considérablement augmenté au cours des dernières décennies, avec l’inflation du prix des actifs, et qui font de l’immobilier une composante centrale de la financiarisation. La « tour-crayon » newyorkaise qui figure sur la couverture du livre symbolise ce processus, qui fait des centres urbains l’un des coffres-forts privilégiés des plus riches, sans parler de leur rôle dans le recyclage d’argent douteux (où Londres se distingue particulièrement). Ce sujet de la rente foncière et immobilière, central dans les réflexions des grands économistes du passé, comme Walras, mériterait d’être remis à l’ordre du jour, alors que, pour des raisons politiques de sacralisation de la propriété, nous avons presque unanimement naturalisé l’absence de régulation des marchés du sol et de la localisation, en dépit de leurs effets délétères évidents.
Sur le volet écologique, mon livre fera sans doute lever les sourcils de nombreux collègues urbanistes car je relativise le discours souvent entendu de la monstrueuse non-soutenabilité urbaine. Je rappelle que, fondamentalement, la densité permet d’économiser les ressources. Manhattan est beaucoup plus « vert » que Phoenix. Malgré les apparences, les coûts d’infrastructures sont moins élevés par habitant dans les concentrations urbaines que dans les zones peu denses, surtout dans les pays riches qui mettent en œuvre une certaine équité dans l’accès aux services collectifs. Répartir les Français dans des villes moyennes, toutes choses égales par ailleurs, serait une catastrophe écologique.
Le problème-clé, ce sont nos manières de produire et de consommer, et à cet égard, les villes ne sont ni plus ni moins insoutenables que l’économie globale de prédation des ressources naturelles et d’accumulation d’artefacts en tous genres. Les (rares) études existantes montrent que l’impact écologique complet des villes, surtout des grandes villes dans les pays riches, résulte surtout des consommations des habitants et du « scope 3 », plus que des activités directement identifiées comme urbaines (bâtiment, transports).
A San Francisco, par exemple, les émissions liées aux consommations sont 2,5 fois plus importantes que celles des activités dites urbaines. Elles varient de 1 à 4 selon les quartiers. Et les progrès constatés viennent surtout de changements dans l’alimentation ou la décarbonation de l’énergie. Bien entendu, cela ne veut pas dire que les morphologies urbaines, et notamment l’étalement urbain, bête noire des urbanistes, n’ont pas d’importance, mais cela rappelle qu’elles sont du second ordre par rapport aux dynamiques de non-soutenabilité globale et aux différences de modes consommatoires.
Le problème le plus grave, enfin, posé par les dynamiques spatiales actuelles est celui des inégalités et fractures sociales. Celles-ci sont liées à la fois aux méga-concentrations, qui les exacerbent, et à l’émergence de vastes zones de friches écologiques, sociales et économiques qui sont l’équivalent spatial des « hommes inutiles » dont parle Pierre-Noël Giraud.
S’agissant des grandes villes, riches ou pauvres, leur impact sur les inégalités, réelles et perçues, est double : elles les accélèrent fortement, via les inégalités de patrimoine liées à la rente foncière et à l’économie immobilière en général, et elles les exposent aux yeux de tous, de manière souvent obscène, attisant le ressentiment des plus pauvres mais aussi, de plus en plus, des classes moyennes. Ce double effet est délétère.
Je cite un passage extraordinaire de Proust qui décrit les simples gens massés dans l’ombre qui regardent les riches dîner dans les salons brillants de l’hôtel de Balbec, et qui conclut :
« Une grande question sociale, de savoir si la paroi de verre protégera toujours les bêtes merveilleuses et si les gens obscurs qui regardent avidement dans la nuit ne viendront pas les cueillir dans leur aquarium et les manger ».
A l’ombre des jeunes filles en fleur, Marcel Proust
Les villes et les territoires pris dans l’urbanisation généralisée sont des systèmes très ouverts, beaucoup plus que nous ne le percevons spontanément.
La question des fractures sociales et politiques, ainsi, se pose à diverses échelles, de même que celle des impacts écologiques, les deux aspects étant d’ailleurs fortement corrélés
Il y a l’échelle des agglomérations, évoquée à l’isntant, où la centrifugeuse sociale liée au marché foncier éloigne de plus en plus les classes moyennes des cœurs des villes.
A une autre échelle, j’insiste sur la modification profonde des relations entre les centres et les périphéries, nationales ou régionales. Longtemps, ces relations ont été inégales mais synergiques. Les centres avaient besoin de ces périphéries proches pour les nourrir, pour les matériaux et la main d’œuvre pas chère de la construction, pour la domesticité facilitant la vie quotidienne. (Pensez à l’alimentation de Paris, qui a structuré la géographie agricole d’une partie de la France, aux maçons creusois, aux bonnes bretonnes ou alsaciennes, etc.) Aujourd’hui ces périphéries de proximité qui étaient des ressources vitales pour les centres se sont souvent transformées en charges, surtout lorsqu’elles sont liées aux centres par des systèmes de solidarités du type Etat social.
Un marché mondial des ressources périphériques existe désormais, dans lequel tous les centres peuvent puiser, accessibles via l’internet et/ou des migrations temporaires. Télétravailleurs des petits boulots, main-d’œuvre des chantiers, nounous indonésiennes ou philippines : le « type de schémas migratoires que même les populistes adorent » pour reprendre un titre récent de The Economist.
Les cités-Etats, délestées de périphéries qui leurs sont liées par les « CDI » de la citoyenneté partagée, illustrent parfaitement ce paradigme, mais sont loin d’en avoir le monopole. A la place de la mosaïque bien ordonnée des centres bien connectés à leurs périphéries de proximité, se substitue progressivement un monde où les centres sont surtout reliés entre eux à l’échelle globale (ce que j’avais appelé dès 1996 « l’économie d’archipel ») (voir Mondialisation, villes et territoires, PUF, 1996, dernière édition 2004) et font appel à une périphérie elle-même globalisée, inépuisable réservoir de ressources banalisées.
Sur ce fond, je souligne enfin le développement des extraterritorialités en tous genres, c’est-à-dire la prolifération de zones qui échappent ou veulent échapper aux régulations territoriales ordinaires. Cela va des paradis fiscaux et des zones économiques spéciales, aux formes plus utopiques et extrémistes portées par les libertariens californiens qui préconisent des sécessions radicales pour échapper aux régulations étouffantes du monde pré-numérique. Un exemple est celui du Seasteading Institute qui veut créer des villes en haute mer (soutenu par une pléiade d’acteurs du néo-trumpisme californien, Peter Thiel en tête). Richard Powers en parle dans son dernier et comme toujours passionnant roman : Un jeu sans fin (2025), chez Actes Sud. Il y a aussi l’idée des « Chartered cities » promue par le prix Nobel d’économie 2018, Paul Romer, qui consiste à créer dans les pays pauvres des villes-entreprises, dotée des institutions solides dont ces pays manquent et donc pilotées par des acteurs du Nord. Toutes ces pistes n’ont guère donné de résultats, en dehors de micro-réalisations comme Prospera au Honduras, mais elles sont significatives d’un changement de régime territorial qui prend distance petit à petit avec la territorialité étatique « homogène » des deux siècles passés. Avec l’avènement et la généralisation (en trompe-l’œil, il est vrai) de l’Etat-nation territorial, nous avions cru atteindre la forme définitive de la gouvernance spatiale. Attendons-nous à des turbulences et à des surprises.
Ce livre est passionnant par la variété des informations fournies remises en place grâce à un cadre conceptuel convaincant. Je ne ferai que quelques remarques en incitant le lecteur à plonger dans la lecture et faire son miel par lui-même de la richesse de l’ouvrage.
Il remet en cause beaucoup d’idées reçues sur la ville, dont chacun parle d’autant plus facilement qu’il n’y a pas vraiment réfléchi ou sans base factuelle étayée.
Juste deux exemples frappants.
L’auteur nous démontre qu’un tissu de villes moyennes n’est pas intrinsèquement plus écologique que des concentrations urbaines, qui permettent des économies d’échelle, alors que leur « bilan carbone » est plus lié aux revenus et aux modes de vie qu’au lieu de résidence. A titre personnel, j’ai beaucoup aimé (entre autres !) le développement sur les lois de puissance et leur application au « métabolisme » des villes.
Quant à la fracturation sociale et aux inégalités sociales, notre auteur montre qu’elle est beaucoup plus forte au sein des villes qu’entre milieux urbain et rural, mythe abondamment entretenu dans les médias aujourd’hui.
Les multiples observations faites sur ce qui se passe « ailleurs » – avec des exemples documentés dans de multiples régions du monde – font réussir le pari de l’auteur : faire voir que l’urbanisation – c’est-à-dire en fait les processus par lesquels nous habitons et transformons la surface de la planète – fait partie des processus fondamentaux de la « grande accélération ». Après ce périple, le lecteur ne voit plus la ville comme avant et cesse de projeter sa vision et sa conception occidentale sur des réalités beaucoup plus complexes.
Dernière remarque relative à la rente foncière et les inégalités majeures qu’elle crée.
Qui ne se rend compte de la difficulté financière actuelle de faire faire des études à de jeunes talents dans les lycées prestigieux du 5ème arrondissement parisien ?
J’ai eu le plaisir dans mon expérience de recherche, plus tout-à-fait récente ! de travailler sur ces questions et d’échanger avec des experts de cette question. Dans ce livre, Pierre Veltz ouvre des pistes innovantes (comme le bail réel solidaire) qui permettraient de résorber ces inégalités.
Au final, ce qui m’a le plus fasciné dans cet ouvrage, c’est qu’il aborde de manière pédagogique et solidement argumentée les « défis de l’urbanisation planétaire » (sous-titre du livre) sous de multiples dimensions : écologique, sociale, industrielle., numérique. J’en recommande vivement la lecture !
Alain Grandjean et Pierre Veltz, consultant chercheur
Notes
The post Après la ville de Pierre Veltz – Note de lecture appeared first on Chroniques de l'Anthropocène.