08.09.2025 à 17:20
Stéphane Sirot, Professeur d'histoire politique et sociale du XXème siècle, CY Cergy Paris Université
While strikes do not occur more often in France than elsewhere in Western Europe, their place in the history of the French labor movement is nonetheless unique. For trade unions, strikes were once a preferred means of improving everyday life, and also at the heart of their revolutionary utopia. In other words, they were aimed at the overcoming of capitalism.
Over time, strikes have become firmly established as a central feature of social relations in France, but their utopian function has faltered. At the turn of the 20th and 21st centuries, like other expressions of class struggle, it has even been significantly devalued.
In addition to its role as a tool for defending living conditions and fighting for new rights, strikes are a primitive form of agglomeration of the working class, whose rise in power precedes and then accompanies the development of trade unionism.
When the right to form unions was granted in 1884, labor disputes, which had been decriminalized in 1864, were already well on their way to becoming a central feature of industrial relations. In other words, action preceded organization. Often, throughout the 19th century, action even laid the foundation for organization: unions were formed in the wake of social unrest, with some disappearing quickly once a strike was over, and others continuing to exist.
When la Confédération Générale du Travail (General Trade Confederation), known as the CGT, was founded in central France in 1895, it quickly adopted a set of values based on “worker autonomy” and “direct action”. Through its own struggles, independent of partisan structures and institutions, the working class was supposed to prepare for the “dual task”, defined by the trade union movement, of the prosaic struggle for immediate demands and the utopian prospect of overthrowing capitalism. This approach gives strikes a central role and tends to endow them with all kinds of virtues.
Strikes are seen as an education in solidarity, through the material mutual aid they often generate or through their interprofessional reach. They are also an education in class struggle, an “episode of social warfare”, as one of the pre-1914 leaders of the CGT wrote. This is why, whatever happens, “its results can only be favorable to the working class from a moral point of view, [because] there is an increase in proletarian militancy”. And if a strike is victorious, it is a form of collective recovery from capitalism, because it produces “a reduction in the privileges of the exploiting class”.
Finally, revolutionary trade unionists believe that a general strike provides workers with the weapon that will enable them to achieve the Holy Grail: the definitive demise of capitalism. This is the argument put forward in Comment nous ferons la Révolution (How We Will Bring About the Revolution) the only work in the activist field that describes in detail the process of appropriation of the means of production by the workers themselves, under the aegis of their unions, which then set about organizing a bright future.
A politically charged general strike in France never occurred and, thus, never led to radical social change. But such a utopia was not necessarily intended to be prophetic. Its function was also, and perhaps above all, to protect the labor movement from the siren calls of co-management of and support for the existing system, a project conceived in the last decades of the 19th century by the republican elites. In addition, maintaining a revolutionary course seems conducive to fuelling a “great fear” in the dominant order, which, to reassure itself, feels compelled to make concessions.
While the first world war dealt the final blow to revolutionary trade unionism, two main approaches to strikes prevailed during the years of a split in the CGT (1922-1935). For the confederation of Léon Jouhaux, a socialist who was awarded a Nobel peace prize in 1951, the suspension of production was essentially a last resort to be used only if negotiations failed. For the CGTU, which was close to the French Communist Party (PCF), it could be a weapon that went beyond the mere satisfaction of economic demands. According to communist trade unionists, “as it develops, the strike inevitably becomes a political struggle pitting workers against the trinity of employers, government and reformists, demonstrating the need for a ruthless struggle that goes beyond the corporate framework”.
However, in trade union discourse and imagination, striking is no longer seen as a practice capable of promoting the principle of “worker autonomy” or bringing about the birth of a new society. It has lost its utopian dimension.
Nevertheless, a strike remains a major weapon. Until the second world war, trade unionism and the working class were not yet fully integrated into Western societies; the process was certainly under way, but not yet complete. Although gradually becoming more commonplace, collective bargaining struggled to find its place. Workers’ organizations therefore had to rely on a culture of struggle, which was almost the only means of improving daily life and temporarily disrupting the capitalist system of exploitation.
Subsequently, and until the 1960s and 1970s, strikes remained a very common feature of union practices, albeit for reasons that differed significantly from those of previous periods. Within the framework of the “Fordist compromise” (the exchange of productivity gains for purchasing power) and the institutionalization of trade unionism, strikes became primarily a means of managing systemic disruptions and promoting a slightly less inequitable distribution of wealth, in a logic of conflictual regulation of social relations. The act of stopping work became ritualized, as illustrated by the exponential increase in the number of days of action.
Furthermore, within the framework of the welfare states built up during the post-war economic boom, France and the Western world undergo a phase of progressive reforms which, on the surface, do not appear to be the result of a systematic and constant power struggle. It is reasonable to assume that, in the long term, this situation is partly responsible for the decline in the legitimacy of strike action. As soon as an improvement in living conditions appears possible through political action or through compromises agreed with the unions in the context of a “social dialogue” that is set to prosper, a shift is likely to occur that will relegate strikes to the status of a nuisance or an accident to be avoided.
It was then that employee organizations and their practices were confronted with, among other things, the effects of the economic climate (slowing growth, deindustrialization, job insecurity, individualization of wages, counterreforms dismantling the welfare state, etc.), the rise of liberalism – one of whose aims is to paralyze union action – and post-1968 changes in society (rise of individualism, decline of grand political utopias, etc.).
To this list of endogenous causes, it must be added those created by trade unionism itself. These include its distancing from the political arena and its role in this area; its inability to generate hope; and the contradictions raised by its nature as an institutional counterweight, torn between an obligation to oppose and a deep-rooted inclusion in society.
In this context, the trade union movement at the turn of the 20th and 21st centuries seems to have significantly retreated to a strategy of survival. This appears to consist of saving its legitimacy, if necessary by distancing itself from the mobilization of workers and, ultimately, by abandoning the idea of breaking with the capitalist order.
For the past 30 or 40 years, one after another and to varying degrees, the major labor confederations have also embarked on a path that has fuelled doubt. There has even been rhetorical delegitimization of strike action. In 1985, Edmond Maire, then leader of the French Democratic Confederation of Labour (la Confédération française démocratique du travail or CFDT), said: “[…] the old myth that says union action is only about strikes is a thing of the past. Trade unions must abandon it.”
However, trade unionism based on “social dialogue” without leverage has never been as successful as that based on confrontation. In France, the major historical phases of significant social gains have resulted from trade union and popular mobilization. The Popular Front in the 1930s, liberation (la Libération) from German occupation in the 1940s, and May-June 1968 are striking examples.
Conversely, since the 1980s, characterized by the development of decentralized collective bargaining processes, the restriction of social rights has been steadily progressing. Except in November-December 1995, when a determined social movement, in this case a bloquant (blocking) and renewable one, managed to spread while sparking debates that were able to establish a link between professional demands and the societal choices they brought to light.
Throughout its history, trade unionism has rallied support and established itself as a social force feared by the ruling order, which, today as in the past, rarely concedes anything without feeling threatened. This has been achieved both through the utopian political project that it promoted, and through strike action, which it made a major paradigm.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Stéphane Sirot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.09.2025 à 08:25
François Buton, Directeur de recherche au CNRS, ENS de Lyon
Emmanuelle Reungoat, Maîtresse de conférences en science politique, Université de Montpellier
Contestation sociale et crise politique. Entre échos des luttes récentes et crispations politiques persistantes, « Bloquons tout » révèle les fragilités d’un système représentatif confronté à des colères sociales multiples.
Lancé en juillet, le « mouvement du 10 septembre » ou « Bloquons tout » est l’objet de toutes les attentions de la part de la société, du gouvernement, de la classe politique, des médias, des renseignements territoriaux. Plusieurs éléments de ce mouvement font à l’évidence écho avec celui des gilets jaunes, survenu en novembre 2018. Il s’agit d’une mobilisation par en bas, lancée par différents groupes déjà organisés mais amplifiée par les réseaux sociaux (surtout Telegram), sans leadership mais structurée par des sites Internet qui témoignent d’emblée d’une forte hétérogénéité entre des contestataires plutôt souverainistes et défenseurs d’une France chrétienne (Les essentiels) et d’autres se réclamant de la gauche radicale (Indignons-nous).
Si la mobilisation présente des revendications nombreuses, plus ou moins élaborées, elle est à première vue motivée par le pouvoir d’achat et la dénonciation des inégalités : l’opposition au projet de budget du premier ministre François Bayrou, dénoncé pour faire payer le fardeau de la diminution du déficit (40 milliards d’euros d’économie) aux travailleurs, aux chômeurs, aux salariés, aux précaires, aux malades, fait écho au sentiment d’injustice des gilets jaunes à l’annonce d’une nouvelle taxe sur le carburant. Le projet de loi de finances est critiqué par l’ensemble des forces politiques opposées au gouvernement, et semble mal reçu par la population, qui soutient le mouvement à venir, si l’on en croit une enquête par sondage réalisée les 20 et 21 août (Toluna Harris Interactive pour RTL) et abondamment citée.
Ainsi, 59 % des Françaises et des Français soutiennent l’objectif de réduction des dépenses publiques, mais 63 % soutiennent le mouvement (70 % se disent favorables à des manifestations, 58 % à des blocages), 75 % s’opposant à la suppression de deux jours fériés et 71 % se disant favorables à une « contribution de solidarité payée par les Français les plus aisés ». Depuis plusieurs semaines, l’organisation d’assemblées locales, la production de carte des rassemblements à venir, la variété des modes d’action envisagés (de la désobéissance civile au blocage de lieux de production) rappellent aussi la mobilisation de 2018.
La comparaison avec les gilets jaunes fait donc sens, et ne manque pas d’être faite dans les commentaires : les gilets jaunes sont dans « toutes les têtes », comme modèles positifs ou négatifs, comme motifs d’espoir ou d’inquiétude. Pour nous qui avons longtemps travaillé sur ce mouvement, le rapprochement est pertinent mais délicat à manier. La comparaison terme à terme ne doit pas faire oublier l’historicité des luttes : les gilets jaunes sont un précédent, les protestataires potentiels du 10 septembre ont pu y participer, acquérir des savoir-faire protestataires, et tirer des enseignements quant à l’efficacité des actions du mouvement, de ses limites ou impasses, de sa durée ou encore de la répression subie.
Mais l’histoire des luttes est riche d’autres contestations, antérieures (Nuit debout), et surtout postérieures à 2018 : manifestations monstres de l’opposition à la réforme des retraites, manifestations des agriculteurs (certains « en bonnets jaunes »), occupations contre des projets autoroutiers (A 69) ou agricoles (Sainte-Soline), grèves diverses, mouvement d’opposition au pass sanitaire, ou encore, pétition elle aussi monstre (plus de 2 millions de signataires) contre la loi Duplomb en juillet dernier. Il est donc nécessaire de faire la part des apprentissages respectifs de toutes ces mobilisations dans ce qui se prépare pour le 10 septembre en différents points du territoire.
La comparaison des « profils » des gilets jaunes et des « bloqueurs » potentiels n’est pas plus facile à mener, non seulement parce qu’on ne connaît par définition pas encore les bloqueurs, mais au mieux une partie de celles et ceux qui se mobilisent sur les réseaux sociaux et qui acceptent de répondre à des questionnaires, ou celles et ceux qui se réunissent dans des assemblées, mais aussi parce qu’il reste à définir qui a été Gilet jaune avant d’en présenter les profils.
Dans nos propres enquêtes, nous avons par exemple choisi de nous intéresser à des « super Gilets », des primocontestataires le plus souvent, engagés intensément (parfois à corps perdus), et longtemps (certaines et certains le sont encore !) dans un groupe local. Ces Gilets ne sont pas représentatifs de l’ensemble du mouvement, où d’autres étaient des militants plus expérimentés, et dont la grande majorité n’a participé qu’à quelques actes ou assemblées : des enquêtes estiment à 3 millions le nombre de citoyennes et de citoyens ayant participé à au moins une action gilet jaune en 2018-2019.
Quand nous les contactons pour leur demander ce qu’ils pensent de « Bloquons tout », ce qu’ils font et envisagent de faire, les réponses sont très variables. Certains, parés de leur gilet, ont investi les assemblées locales ou les boucles Telegram comme ils l’ont fait dans la plupart des contestations depuis sept ans ; d’autres au contraire suivent de près ou de loin, attendant de voir, écœurés par la supposée « récupération » politique, sceptiques quant aux chances de succès d’une contestation de plus dans la rue, ou refroidis par le manque de soutien de la population et la dureté de la répression, y compris judiciaire, lors du mouvement de 2018 (« que les autres se mouillent »).
Bien des attitudes sont possibles, que nous pouvons expliquer finement dans chaque cas, mais dont nous savons qu’ils et elles ne représentent pas tous « les » gilets jaunes. Une chose est sûre : des gilets jaunes sont là, et d’autres sont prêts à participer.
Mais une différence majeure avec les gilets jaunes, précisément en raison de leur antériorité, réside dans l’hyper attention médiatique à l’œuvre depuis quelques semaines pour le mouvement « Bloquons tout ». Tout en oubliant de mentionner la défiance immense des contestataires à leur égard (gageons que le thème reviendra avec les premières manifestations), les médias couvrent massivement la préparation, en lui posant les questions habituelles : qui sont les bloqueurs, qui peut incarner le mouvement voire en être les leaders, qui se « cache derrière », que veulent-ils, à quoi s’attendre, voire que craindre ? Or, l’hyper attention médiatique a sans doute eu pour effet de bousculer les responsables politiques et syndicaux de tous bords, quand ils et elles n’avaient pas pris les devants.
Une autre différence majeure avec 2018, où les partis et les syndicats avaient ignoré, voire condamné le 17 novembre, réside en effet dans la précocité de la politisation de la contestation qui vient. Le terme, qui a plusieurs sens, ne désigne pas pour nous la « récupération » du mouvement par telle ou telle force politique – expression largement employée, mais qui relève d’une catégorie politique stigmatisante. Il renvoie à l’idée que l’ensemble des forces du champ politique s’accordent, au-delà de leurs différences, pour redéfinir le mouvement et ses revendications comme politique, c’est-à-dire comme relevant de « la » démocratie politique (les élus et les partis) et de « la » démocratie sociale (les syndicats). D’un côté, les confédérations appellent à une autre « mobilisation massive » le 18 septembre, amplifiant les grèves annoncées çà et là ; de l’autre, depuis la « rentrée politique » des universités d’été, mi-août, les responsables de partis se prononcent en soutien ou contre le mouvement et discutent de la légitimité de ses revendications et de ses modes d’action.
Le coup politique le plus spectaculaire revient évidemment au premier ministre François Bayrou qui annonce le 25 août engager la responsabilité de son gouvernement en demandant un vote de confiance à l’Assemblée nationale, le 8 septembre sur son projet contesté de loi de finances. Cette décision spectaculaire permet en effet à l’agenda proprement politique de repasser au premier plan : éloges ou critiques du geste (un retour à la démocratie parlementaire pour Jean-Luc Mélenchon), consultations diverses et variées, prises de position sur tel ou tel point du projet (notamment la suppression de deux jours fériés). Le rejet de la confiance, qui est acquis, va faire entrer le pays dans une crise politique voire institutionnelle susceptible d’occuper l’agenda médiatique au détriment de la « crise » sociale.
Tout se passe donc aujourd’hui comme si les élus reprenaient la main au détriment des citoyennes et citoyens ordinaires. La dernière petite phrase de François Hollande (« Je ne peux pas m’associer à quelque chose que je ne maîtrise pas ») révèle à cet égard une forme d’inconscient de la classe politique, qui dit « entendre l’exaspération », mais n’entend s’engager que dans ce qu’elle maîtrise, à savoir les jeux politiques et institutionnels, et ne donner la parole au peuple que sous la forme du suffrage électoral.
Ce faisant, les élus font preuve d’un aveuglement qui ne laisse pas d’étonner. Une autre leçon du mouvement des gilets jaunes, en effet, c’est qu’il a profondément transformé ses primocontestataires sinon en militants, du moins en citoyens ayant le sentiment d’être enfin dignes d’être entendus, capables de débattre et de se prononcer sur les sujets politiques et même institutionnels, tels que le référendum d’initiative citoyenne (RIC), qui engagent le pays, et refusant de se contenter de glisser un bulletin de vote dans l’urne tous les cinq ans.
Ce qu’on lit aujourd’hui sur les boucles Telegram ou ce qu’on entend dans les premières assemblées locales atteste la même résolution à ne pas se faire infantiliser et renvoyer à son labeur quotidien en vertu d’un défaut supposé de « titres à parler » (Jacques Rancière). La défiance à l’égard des élus nationaux, forte en 2018, l’est encore plus aujourd’hui : les fameuses « cotes de popularité », pour autant qu’elles aient la moindre signification, indiquent que les opposants les plus « populaires » ont la confiance d’au mieux un citoyen sur trois.
On peut douter que les petits jeux d’une crise institutionnelle et politique fascinent les Français, puisque les gouvernants ne les écoutent ni quand ils manifestent massivement (contre les retraites), ni quand ils votent contre une majorité (en 2024, qui n’est pas sans rappeler le référendum de 2005), et répondent par des conférences citoyennes ou grands débats dont ils ignorent les résultats et par une répression de plus en plus violente.
Dans ce contexte, « Bloquer tout » peut signifier bien des choses : pour certains, c’est mettre le chaos dans un pays pourtant « déjà bloqué ; pour d’autres, ce qui pose problème, c’est plutôt le blocage ou la fermeture du champ politique, qui entend réserver les décisions aux seuls représentants (les syndicats et les partis). Les gilets jaunes n’ont pas seulement protesté contre une taxe, ils ont aussi appris chemin faisant à proposer une autre forme de démocratie ; il est peut-être temps de reconnaître que les mouvements sociaux apportent des solutions, et pas seulement des problèmes.
François Buton a reçu des financements pour des projets de recherche de la MSH SUD, du réseau des MHS, de l'ENS de Lyon et de l'ANR.
Emmanuelle Reungoat a reçu des financements d'institutions publiques pour des projets de recherche, la MSH-SUD, le RnMSH et l'ANR.
06.09.2025 à 08:10
Augustin Rigollot, Normalien en économie et philosophie, spécialisé en économie de la santé (UPEC), externe en 6e année de médecine, Université de Montpellier
Face aux tarifs douaniers de Donald Trump, les politiques publiques françaises cherchent à résoudre une équation complexe. Comment inciter les organismes publics et privés à créer des médicaments innovants, répondant à des besoins thérapeutiques non pourvus, dans un cadre budgétaire contraint, le tout rapidement et équitablement ? Mission impossible ?
Le 12 mai 2025, Donald Trump annonce un décret pour faire baisser le prix des médicaments aux États-Unis, accusant les autres pays de profiter de prix trop avantageux. Le 4 août, il adresse un ultimatum en ce sens à 17 grandes compagnies pharmaceutiques.
Cela fait craindre, en France et en Europe, une hausse du prix des médicaments, notamment les nouvelles molécules qui traitent des besoins thérapeutiques non pourvus. Le marché pharmaceutique des États-Unis étant le plus grand au monde, une baisse de prix dans la première économie mondiale entraînera symétriquement une hausse du prix dans les autres pays. Aux États-Unis, la négociation des prix a surtout lieu entre laboratoires et assureurs privés, avec une intervention étatique limitée, aboutissant à des prix particulièrement élevés. En Europe au contraire, les prix sont généralement plus bas, car négociés par le payeur public, avec un fort pouvoir étatique. Or, l'administration Trump souhaite que les États-Unis bénéficient systématiquement du prix le plus bas parmi les prix constatés dans les autres pays. Cela ne laisse que deux choix aux laboratoires:
baisser le niveau des prix aux États-Unis au niveau des prix les plus bas, notamment dans l’Union européenne (UE), les industriels du médicament supportant alors une lourde perte de revenu à l'échelle globale, obérant leur capacité à investir dans l'innovation ;
augmenter le niveau de prix des médicaments dans les pays de l’UE et ailleurs dans le monde en les faisant tendre vers les prix américains, afin de préserver leurs marges mondiales et de limiter la baisse de leurs revenus aux États-Unis.
Au total, les pays bénéficiant actuellement des remises les plus fortes seront les plus atteints par les hausses éventuelles, et le prix global de l’innovation thérapeutique augmentera: un risque pour son accessibilité.
Cette actualité met en lumière les modèles de santé du monde, entre financement par les assurances publiques, comme en France, et par les assurances privées, comme aux États-Unis. Dès lors, de quels leviers la France dispose-t-elle face à une hausse du prix des médicaments innovants ? Qu’en est-il tout particulièrement de ceux luttant contre le cancer (oncologie) ?
La France bénéficie d’une négociation médico-économique efficace du prix du médicament. Celui-ci y est donc bien plus bas qu’outre-Atlantique, ce qui expose fortement notre pays à une éventuelle hausse des prix. Il y a une raison historique : la France représente un fort volume de vente de médicaments en Europe, solvable par une assurance obligatoire publique. De facto, le débouché est garanti pour les industriels, un argument pour négocier des prix plus faibles.
La France dispose d’un environnement réglementaire contraignant sur les prix. Les prix bas dans notre pays permettent que les restes à charge pour les ménages soient très contenus, se situant parmi les plus faibles d’Europe.
Cependant, la France fait face à une contrainte budgétaire croissante, illustrée par les 5 milliards d’euros d’économie prévus dans les comptes sociaux 2026. Ses marges de manœuvre face à une hausse du prix de l’innovation seraient donc particulièrement réduites.
La France présente une accessibilité plus faible à l’innovation pharmaceutique que ses voisins européens 63 % des nouveaux médicaments sont disponibles en France, contre 88 % en Allemagne. Par exemple, en oncologie (diagnostic et traitement des cancers), la France se positionne au 6ᵉ rang en terme de disponibilité en Europe en 2020. Pour expliquer ce défaut d’accessibilité, les industriels pointent les carences du marché français du médicament. Parmi les freins à l’accessibilité, le syndicat des industries du médicament (LEEM) souligne le prix trop bas des médicaments en France, qui ne serait pas attractif par rapport aux pays comparables européens. Ce manque d'attractivité ne se limite pas au prix, et serait renforcé par des délais d'accès trop longs au marché français, notamment par rapport à l’Allemagne. Ce contexte n’incite pas les industriels à prioriser le marché français pour leurs lancements.
La procédure d’accès précoce permet de nuancer grandement cet argument du délai d’accès.
Grâce à cette procédure dérogatoire, un médicament présumé innovant, répondant à un besoin médical majeur et grave, est remboursé sur le marché sans devoir attendre la fin de la procédure d’autorisation de mise sur le marché (AMM). Cela a permis de réduire drastiquement ces délais d’accès pour plus de 120 000 patients en France, concernant une centaine de molécules coûteuses et innovantes, surtout en oncologie.
Une autre préoccupation, solidariste, reflète plutôt les attentes du payeur public. Elle est illustrée par l’avis 135 du Comité consultatif national d’éthique (CCNE) de 2021. Ce dernier s’inquiète de la pérennité de notre modèle social.
« Les prix très élevés de certains traitements innovants pourraient compromettre l’équilibre financier des systèmes de soins dans leur fonctionnement actuel. »
À lire aussi : Médicaments : comprendre pourquoi pénuries et prix sont liés
Depuis cet avis, les motifs d’inquiétude ont crû parallèlement à la hausse des prix de l’innovation. Désormais le médicament le plus cher du monde, le Libmeldy (traitement de la leucodystrophie métachromatique), atteint, pour l'ensemble du traitement, 2,5 millions d’euros en Europe et aux États-Unis environ 4,25 millions de dollars.
Parmi les nombreux dispositifs qui s’offrent à nous, certains permettent de maîtriser le prix et l’accès au marché, très en amont dans la négociation, tout en soutenant les innovations performantes. C’est le cas des contrats de partage du risque, dit risk sharing agreement. Ils sont documentés depuis une quinzaine d’années et inscrits, par exemple, dans l’article 54 du projet de loi de financement de la Sécurité sociale (PLFSS) en 2023 pour les médicaments de thérapie innovante (MTI). Ces accords entre un laboratoire pharmaceutique et le payeur public visent à limiter les conséquences financières des nouveaux traitements.
Ces contrats sont encore peu exploités en France. Ils constituent un vivier d’efficience que les politiques publiques pourraient utiliser en cas d’inflation du prix de l’innovation thérapeutique, sur fond de guerre tarifaire venant des États-Unis de Donald Trump.
On distingue :
Des accords purement financiers (financial based agreements), les plus répandus. Ils plafonnent les dépenses, avec des seuils de volumes (accord prix-volume) au-delà desquels l’industriel réduit son prix afin de stabiliser l’enveloppe budgétaire. En échange, le payeur public garantit des volumes et un meilleur accès au marché.
Des accords de performance (performance based risk sharing agreements) qui indexent le paiement sur la performance réelle du médicament, plutôt que sur les seuls résultats des essais cliniques. Ils portent sur des critères d’efficience clinique, avec des clauses de remboursement total ou partiel par l’industriel en cas de résultats insuffisants en vie réelle. Ces contrats sont très adaptés aux médicaments ayant une population cible restreinte (afin de pouvoir suivre correctement la performance en vie réelle), ou pour lesquels l’incertitude sur l’efficacité en vie réelle est élevée lors de la commercialisation.
L’Italie est souvent considérée comme le pays européen le plus avancé dans les accords de partage de risque, en particulier en oncologie. En 2017, le montant économisé via ces contrats y était estimé à près d’un demi-milliard d’euros (35 millions sur les seuls contrats de performance). En oncologie, les molécules couvertes par ce dispositif auraient vu leur délai d’accès au marché diminuer de 256 jours.
Ce déploiement en Italie a été accompagné tôt par un système pointu de collecte et d’évaluation des données de performance en vie réelle, géré par l’Agence italienne de santé publique (AIFA). En 2016, elle disposait déjà de 172 registres de données de vie réelle portant sur plus de 300 contrats de partage de risque, concernant environ 900 000 patients. Le coût supplémentaire de ce suivi était estimé dans une fourchette de 30 0000 à 60 000 euros par médicament et par an la première année, dégressif ensuite. La question du partage de ce coût entre le payeur public et l’industriel doit également être prise en compte.
Une telle logique de collecte des données de performance en vie réelle a fait défaut en France. Cela explique en partie notre retard et le faible nombre de contrats de performance – une quinzaine en dix ans, selon l’économiste de la santé Gérard de Pouvourville.
Aujourd’hui, reste le défi de développer ces contrats sans que le suivi de la performance accapare des ressources soignantes dans un contexte de pénurie de temps et de moyens médicaux.
Le problème de l’équilibre entre le soutien à l’innovation, son accessibilité et la soutenabilité du système de santé n’est pas seulement français. C’est un enjeu si important qu’il a été intégré à la Stratégie pharmaceutique pour l’Europe en 2020. Le projet européen Hi-Prix y cherche une réponse, avec la création du Pay for Innovation Observatory, qui recense en ligne l’ensemble des dispositifs de financement de l’innovation.
Face à l’inflation du prix des médicaments innovants, sans commune mesure avec leur soutenabilité pour les systèmes de santé, émerge aussi un débat éthique, que ne pourront résoudre les seules prédictions économiques.
Si le prix de l’innovation, notamment pour les maladies orphelines ou rares, continue d’augmenter et si, en même temps, des avancées diagnostiques, notamment les techniques géniques, lèvent l’incertitude sur les aléas et les états de santé futurs des individus, il existe un risque de fragiliser le consentement à payer, base du contrat tacite de solidarité assurantielle dans nos sociétés.
Augustin Rigollot a reçu au cours des 5 dernières années des financements individuels ou collectifs de différentes fondations : Fondation Bettencourt-Schueller, Fondation Groupe Dépêche, Fondation Axa, Fondation MGEN, Fondation de l'Ecole Normale. Ces financements, de nature générale, n'avaient pas pour objet les recherches liées à cet article. Augustin Rigollot a travaillé en 2023 au sein de la Chaire Hospinnomics de la Paris School of Economics sous la direction de Lise Rochaix pour le projet Hi-Prix cité dans cet article.
04.09.2025 à 17:09
Roy Scranton, Associate Professor of English, University of Notre Dame
L'économiste britannique Thomas Malthus (1766-1834) a longtemps été dénigré pour sa vision négative du progrès. Mais, dans un contexte de crise écologique aiguë, sa pensée d’un monde limité mérite d’être revisitée.
Personne n’utilise le terme « malthusien » comme un compliment. Depuis 1798, date à laquelle l’économiste et ecclésiastique Thomas Malthus a publié pour la première fois Essai sur le principe de population, la position « malthusienne » – l’idée que les humains sont soumis à des limites naturelles – a été vilipendée et méprisée. Aujourd’hui, ce terme est utilisé pour désigner toute personne qui ose remettre en question l’optimisme d’un progrès infini.
Malheureusement, presque tout ce que la plupart des gens pensent savoir sur Malthus est faux.
Voici l’histoire telle qu’elle s’est déroulée : il était une fois un pasteur anglais qui eut l’idée que la population augmente à un rythme « géométrique », tandis que la production alimentaire augmente à un rythme « arithmétique ». Autrement dit, la population double tous les vingt-cinq ans, tandis que les rendements agricoles augmentent beaucoup plus lentement. À terme, une telle divergence ne peut que conduire à une catastrophe.
Mais Malthus a identifié deux facteurs qui réduisaient la reproduction et empêchaient la catastrophe : les codes moraux, ou ce qu’il appelait les « freins préventifs », et les « freins positifs », tels que l’extrême pauvreté, la pollution, la guerre, la maladie et la misogynie. Malthus fut caricaturé comme un ecclésiastique borné, mauvais en mathématiques, qui pensait que la seule solution à la faim était de maintenir les pauvres dans la pauvreté afin qu’ils aient moins d’enfants.
L’étude de Malthus révèle un personnage très différent. Comme je l’explique dans mon livre publié en 2025, Impasse : Le changement climatique et les limites du progrès, ce dernier était un penseur novateur et perspicace. Non seulement, il fut l’un des fondateurs de l’économie environnementale, mais il s’est également révélé être un critique prophétique de la croyance selon laquelle l’histoire tend vers l’amélioration humaine, ce que nous appelons le progrès.
Malthus était familier de l’idée de progrès. Élevé par des protestants anglais progressistes qui prônaient la séparation de l’Église et de l’État, il fut formé par l’abolitionniste radical Gilbert Wakefield. Son père était un ami et admirateur du philosophe Jean-Jacques Rousseau qui inspira la Révolution française.
Malgré une déformation labio-palatine, Malthus s’est distingué à Cambridge, où il a étudié les mathématiques appliquées, l’histoire et la géographie. Entrer dans les ordres était un choix courant pour les jeunes hommes instruits de condition modeste, et Malthus a pu obtenir un presbytère à Wotton, dans le Surrey. Mais cela ne signifiait pas pour autant qu’il renonçait à son intérêt pour les sciences sociales.
Son Essai sur le principe de population a été influencé par les opinions religieuses de Malthus, mais aussi par une démarche empirique, notamment au fil des éditions successives. Son argumentation sur les taux de croissance géométrique et arithmétique par exemple, s’appuyait sur la croissance démographique rapide observée dans les colonies américaines.
Elle s’inspirait également de ce qu’il observait autour de lui. Au cours des dernières décennies du XVIIIe siècle, la Grande-Bretagne a été ravagée par des pénuries alimentaires et des émeutes répétées. La population est passée de 5,9 millions à 8,7 millions d’habitants, soit une augmentation de près de 50 %, tandis que la production agricole stagnait. En 1795, les Londoniens affamés ont pris d’assaut le carrosse du roi George III pour réclamer du pain.
Mais pourquoi Malthus s’intéressait-il aux questions de population ? Comme il l’explique lui-même, son essai a été inspiré par une discussion avec un ami au sujet du journaliste et romancier William Godwin, mieux connu aujourd’hui comme le père de Mary Shelley, autrice de Frankenstein.
Malthus et Godwin avaient des parcours similaires. Tous deux issus de familles de la classe moyenne, ils avaient fait leurs études dans des écoles progressistes et avaient commencé leur carrière comme pasteurs. Mais le radicalisme extrême de Godwin l’opposa à ses compagnons, et il quitta rapidement la chaire pour se consacrer à l’écriture.
Le livre qui a fait la renommée de Godwin et provoqué Malthus est Enquête sur la justice politique, publié en 1793. Aujourd’hui, il est considéré comme un texte fondateur de l’anarchisme philosophique. À l’origine, cependant, l’Enquête, de Godwin était perçue comme une expression tonitruante du progressisme des Lumières.
Godwin affirmait que tous les problèmes sociaux pouvaient être éliminés par une application correcte de la raison. Il prônait l’abolition du mariage, la redistribution des biens et la suppression du gouvernement. De plus, il affirmait que le progrès conduisait inévitablement à un monde utopique, où les humains n’auraient plus besoin de se reproduire, car ils seraient immortels :
« Il n’y aura plus de guerre, plus de crimes, plus d’administration de la justice, telle qu’on l’appelle, ni de gouvernement… Mais en plus de cela, il n’y aura plus de maladie, plus d’angoisse, plus de mélancolie ni de ressentiment. Chaque homme recherchera avec une ardeur ineffable le bien de tous. »
Godwin assurait à ses lecteurs que tout cela se produirait en temps voulu, uniquement en s’appuyant sur un débat rationnel.
Depuis son presbytère pauvre de Wotton, Malthus voyait les choses différemment. L’historien Robert Mayhew décrit Wotton à l’époque comme une friche industrielle affligée par « la pauvreté agraire… des taux de natalité élevés et une espérance de vie courte ». L’étude de l’histoire a conduit Malthus à conclure que les sociétés n’évoluaient pas selon une ligne ascendante de progrès, mais selon des cycles d’expansion et de déclin. L’histoire utopique selon Godwin paraissait pourtant en décalage avec la réalité.
Malthus chercha à démystifier le progressisme grandiloquent de Godwin. Mais il ne dit pas que le changement positif était impossible, seulement qu’il était limité par les lois de la nature.
L’Essai sur les principes de la population fut une tentative pour déterminer où se situaient certaines de ces limites, afin que les politiques puissent répondre efficacement aux problèmes sociaux, plutôt que de les exacerber en essayant de réaliser l’impossible. En tant qu’écrivain et membre actif du parti whig, Malthus était un réformateur qui prônait, entre autres, la gratuité de l’enseignement national, l’extension du droit de vote, l’abolition de l’esclavage et la gratuité des soins médicaux pour les pauvres.
Depuis, la science et l’industrie ont fait des progrès incroyables, entraînant des changements que Malthus aurait difficilement pu imaginer. Lorsque son essai a été publié, la population mondiale était d’environ 800 millions d’individus. Aujourd’hui elle dépasse les 8 milliards, soit une multiplication par dix en un peu plus de deux siècles.
Au cours de cette période, les partisans du progrès ont rejeté l’idée selon laquelle les êtres humains étaient soumis à des limites naturelles et ont dénigré quiconque remettait en question le fantasme d’une croissance infinie comme étant « malthusien ». Pourtant, Malthus demeure important, car son analyse pessimiste de la société exprime clairement une idée qui résiste : les lois de la nature s’appliquent à la société humaine.
En effet, « la grande accélération » du développement humain et de son impact au cours des 80 dernières années pourrait avoir conduit la société à un point de rupture. Les scientifiques avertissent que nous avons dépassé six des neuf limites planétaires pour une vie soutenable et que nous sommes sur le point de franchir une septième limite.
L’une de ces limites est un climat stable. Le réchauffement climatique menace non seulement d’élever le niveau des mers, d’augmenter les incendies de forêt et des tempêtes violentes, mais aussi d’amplifier la sécheresse et de perturber l’agriculture mondiale.
Malthus n’avait peut-être pas prévu les développements qui ont alimenté la croissance démographique au cours des deux derniers siècles. Mais sa vision fondamentale des limites de la croissance n’en est devenue que plus pertinente. Alors que nous sommes confrontés à une crise écologique mondiale qui s’accélère, il est peut-être temps de revisiter la pensée pessimiste d’un monde limité. Reconsidérer ce que nous entendons par « malthusien » pourrait être un bon point de départ.
Roy Scranton a reçu des financements de la Fondation John-Simon-Guggenheim.
03.09.2025 à 16:55
Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille
Depuis la dissolution de juin 2024, la France connaît une paralysie politique inédite. Pour le politiste Rémi Lefebvre, ce blocage n’est pas seulement institutionnel : il révèle une crise plus profonde du lien représentatif, nourrie par la défiance, par la fragmentation sociale et par l’usure du fait majoritaire.
Depuis la dissolution en juin 2024, les gouvernements de Michel Barnier puis celui de François Bayrou ont été en incapacité de gouverner. De nombreux commentateurs ont estimé que ce blocage serait lié au manque d’esprit de compromis des partis politiques, ou à des règles du jeu institutionnel inadaptées. On peut, au contraire, penser que le dérèglement est plus profond. Le rapport à la politique s’est transformé ces dernières décennies et la crise actuelle n’est que le symptôme d’un étiolement et d’une décomposition du lien représentatif lui-même.
Nous avons été habitués en France, notamment depuis les années 1970, au « fait majoritaire » : le président de la République était élu au suffrage universel direct, il avait besoin d’une majorité, qu’il obtenait en général. La vie politique avait une rythmique routinisée d’alternances avec des majorités. Puis ce système s’est peu à peu déréglé.
Les alternances sans alternative se sont multipliées créant un désenchantement chronique dans chacun des camps politiques. La progression de l’extrême droite qui prétend incarner une nouvelle voie est associée au brouillage du clivage gauche-droite. En 2017, l’arrivée d’Emmanuel Macron est comprise comme le produit de l’épuisement du clivage gauche-droite et une réponse à la crise démocratique portée par une rhétorique du « dépassement ».
Mais ce dernier a accentué cette crise en poussant les marges à s’extrémiser et, finalement, en polarisant la vie politique tout en droitisant son positionnement. Emmanuel Macron a nourri l’extrême droite et affaibli la gauche de gouvernement. Alors que les injonctions au compromis sont fortes, le Parti socialiste (PS) est sous la férule de La France insoumise (LFI) et sans cesse exposé à des procès en « trahison ». La difficulté à construire des majorités, liée à la tripartition de la vie politique, est aggravée par la fragmentation interne à chaque bloc.
Pourtant, on ne peut pas comprendre cette crise par le seul jeu politique. Il faut aussi prendre en compte les changements du rapport à la politique par en bas. Depuis le début des années 2000, le mécanisme même de l’élection est mis en cause. La légitimité donnée aux gouvernants par l’élection est de plus en plus faible, comme l’explique Pierre Rosanvallon. Cela est renforcé par le vote stratégique qui s’est largement développé : on vote de plus en plus « utile » pour éliminer, mais les électeurs n’expriment plus vraiment leur préférence, ce qui affaiblit leur engagement dans la désignation d’un représentant et la légitimité de ce dernier. Ainsi, la procédure électorale est abîmée dans ses fondements : on parle de démocratie « négative » (on élimine plus qu’on ne choisit).
Par ailleurs, la fragmentation des identités politiques renvoie pour partie à la fragmentation de la société elle-même. La crise de gouvernance ou de gouvernabilité est liée à une société plus individualisée et fragmentée par des inégalités exacerbées et une forme de séparatisme. Les identités et des clivages sont plus complexes (genre, écologie, laïcité, islam…), moins structurés par des identités de classe homogènes, comme l’explique Gérard Mauger.
Si les partis politiques ne veulent pas faire de compromis, c’est aussi parce qu’ils ne veulent pas décevoir les groupes sociaux éclatés qui les défendent encore et parce qu’ils craignent de « trahir » des électeurs défiants et des clientèles électorales de plus en plus volatiles et étroites. La société est plus polarisée (la polarisation affective par les réseaux sociaux est indéniable) ce qui rend également les compromis politiques plus difficiles. On peut ajouter que l’émiettement et l’éclatement des identités politiques des électeurs sont favorisés par la faiblesse des partis et leur grand nombre – il y existe aujourd’hui 11 groupes parlementaires à l’Assemblée nationale, ce qui est un record). L’une des conséquences majeures est que les partis politiques n’arrivent plus à organiser le débat public autour de quelques visions cohérentes et simples.
L’impasse politique actuelle pourrait-elle être résolue par une dissolution, par des négociations, par de nouvelles élections législatives ou même par une élection présidentielle ? On peut en douter. Finalement, il est possible que le blanc-seing donné à un président à travers une élection législative succédant à son l’élection n’existe plus à l’avenir. Les majorités politiques sont introuvables mais peut-être aussi les majorités sociales et électorales (c’est-à-dire des alliances de groupes sociaux suffisamment larges pour porter les premières).
La crise conjoncturelle vécue depuis un an s’inscrit dans une tendance encore plus large, qui est l’accroissement considérable de la défiance à l’égard de la politique.
Selon le baromètre Cevipof 2025, environ 20 % des Français font confiance aux hommes et femmes politiques. Les Français jugent donc la classe politique incapable de régler les problèmes. Ils la jugent même indigne. Il faut dire que le spectacle donné est assez peu attractif, et on peut estimer que le niveau du personnel politique baisse. Le politiste Luc Rouban a montré que ce phénomène nourrit un désir de repli sur la sphère privée sur le mode « Laissez-nous tranquille, la politique on s’en fout ». La crise actuelle est donc le produit de cette défiance et l’incapacité de la classe politique à la résoudre renforce le phénomène.
La déception et le désenchantement se sont accumulés depuis des décennies. L’usure de l’alternance gauche-droite, qui rythmait la vie politique, est profonde. Nicolas Sarkozy n’a eu qu’un mandat, François Hollande également : tous deux ont fait campagne sur le volontarisme, mais ont rapidement déçu. Ils ont mené des politiques libérales sur le plan économique qui ont miné l’idée que la politique pouvait changer les choses. Emmanuel Macron, réélu, a déçu également. Il a favorisé le sentiment anti-élites qui s’est puissamment manifesté lors de la crise des gilets jaunes (et peut-être le 10 septembre prochain). Finalement, chaque camp est marqué par le désenchantement et produit des mécanismes de polarisation. Ainsi, les socialistes ont produit LFI, résultat d’une déception, celle de la gauche au pouvoir. L’extrême droite est aussi, dans une large mesure, le résultat de la désillusion politique. Ces forces (LFI et Rassemblement national) sont hostiles à tout compromis.
Cette défiance envers la politique n’est pas spécifique à la France, comme l’a montré Pierre Martin dans son analyse de la crise des partis de gouvernement. Ces mécanismes sont présents partout, en Europe ou aux États-Unis. Depuis les travaux de Colin Crouch, les sciences politiques parlent même de régimes « post-démocratiques », où les décisions échappent de plus en plus au pouvoir politique.
La mondialisation, l’européanisation, le pouvoir des très grands groupes financiers et des lobbys ont démonétisé le pouvoir politique et réduit ses marges de manœuvre. Or le politique suscite des attentes, et ses acteurs tentent de réenchanter le jeu électoral en faisant des promesses à chaque élection.
Cette situation est d’autant plus mal vécue en France qu’il existe une culture d’attentes très fortes à l’égard de l’État. Cette crise du volontarisme politique crée des déceptions à répétition. La dernière enquête du Cevipof montre que la défiance augmente et qu’elle est associée à un sentiment d’impuissance gouvernementale et électorale. Les Français pensent que la politique ne sert plus à rien : le jeu politicien stérile tournerait à vide, sans impact sur le réel.
La situation actuelle fait le jeu de l’extrême droite, car la défiance à l’égard de la politique nourrit l’antiparlementarisme et renforce aussi l’idée qu’une force politique qui n’a pas exercé de responsabilités peut être un recours.
Par ailleurs, une partie de la société se retrouve sur les thèmes de la droite : immigration, sécurité, rejet de l’écologie, etc. Dans ce contexte, la victoire de l’extrême droite peut apparaître comme inéluctable. Elle est advenue aux États-Unis, il est difficile d’imaginer pouvoir y échapper en France, étant donné la grande fragmentation de la gauche, ses écueils et ses impasses. Reste que si l’extrême droite arrive au pouvoir – ce qui ouvrirait une séquence dramatique – elle sera aussi confrontée à l’épreuve de pouvoir et décevra certainement, sans résoudre la crise politique que nous vivons. Son électorat, très interclassiste (populaire au Nord, plus bourgeois au Sud-Est), a des attentes contradictoires et il sera difficile de le satisfaire.
Il serait naïf de croire en un « solutionnisme institutionnel » qui réglerait cette crise du politique. La démocratie ne se résume pas à des règles du jeu électoral et à des mécanismes institutionnels. Elle est portée par des valeurs, une culture, des pratiques, des comportements. Certaines évolutions ne sont pas moins souhaitables.
Ainsi, un changement de scrutin proportionnel inciterait les électeurs à voter par conviction et à marginaliser le « vote utile ». Il s’agirait de mieux refléter les préférences politiques des électeurs à travers un mode de scrutin et de relégitimer la procédure électorale.
Une sixième République permettrait certainement de régénérer des institutions liées à un présidentialisme épuisé, comme l’a montré Bastien François. Désormais, la verticalité du pouvoir ne fonctionne plus dans une société travaillée par des dynamiques d’horizontalité. L’imaginaire lié au président de la République accentue la déception, en créant un homme providentiel qui ne peut tenir ses promesses. Si les Français ne sont pas favorables à la suppression de l’élection présidentielle au suffrage universel direct, il est possible de limiter les pouvoirs du président – tout comme il est possible d’inverser le calendrier avec des législatives qui précèdent les présidentielles.
De nombreux travaux, comme ceux de Loïc Blondiaux, proposent également des pistes pour penser un nouvel équilibre entre démocratie représentative et démocratie participative, avec une démocratie plus continue, moins focalisée sur l’élection. Pendant longtemps, l’élection suffisait à faire la démocratie, or ce cycle est terminé. Cela suppose de bricoler, d’expérimenter – référendum, convention citoyenne, etc. – afin de trouver un nouvel équilibre entre participation et représentation. Reste que ces solutions sont complexes à mettre en place, alors que la démocratie par le seul vote était très simple. Enfin, la démocratie, c’est une culture, et il est nécessaire de favoriser la participation à tous les niveaux, en favorisant une société plus inclusive, moins compétitive, notamment à l’école ou dans l’entreprise.
Un autre sujet est celui des partis politiques : les citoyens n’y militent plus parce que ces derniers sont perçus comme peu attractifs. Certaines études proposent de les refonder et de repenser, par exemple, leurs financements publics, en conditionnant les dotations à la diversité des représentants élus.
Enfin, un enjeu démocratique majeur consiste à reprendre le pouvoir sur la sphère économique. Le débat sur la taxe Zucman signale le verrou politique à faire sauter : celui du pouvoir de l’oligarchie financière. Tant que le pouvoir politique devra courber l’échine devant la finance, la logique déceptive de la post-démocratie se poursuivra. Pourtant, les inégalités ont tellement augmenté que les sociétés pourraient exiger un rééquilibrage. En ce sens, la post-démocratie n’est pas inéluctable.
Les forces économiques tenteront de protéger leurs positions et leur pouvoir, mais, comme le montre Vincent Tibérj, l’attachement à la justice sociale et à la redistribution est très fort en France, y compris à l’extrême droite. Sous la pression, les élites pourraient donc être contraintes de céder.
Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.09.2025 à 16:18
Daniel Treisman, Professor of Political Science, University of California, Los Angeles
Les autocrates contemporains sont passés maîtres dans l’art de la manipulation des médias et de l’opinion. Ils évitent la répression brutale ou la violence ouverte et préservent les apparences de la démocratie – tout en la vidant de sa substance.
Les critiques du président Donald Trump l’accusent souvent de nourrir des ambitions despotiques. Des journalistes et des universitaires ont établi des parallèles entre son style de leadership et celui de dirigeants autoritaires à l’étranger. Certains démocrates avertissent que les États-Unis glissent vers l’autocratie – un système au sein duquel un dirigeant détient un pouvoir sans limite.
D’autres rétorquent que qualifier Trump d’autocrate est exagéré.
Après tout, ce dernier n’a pas suspendu la Constitution, ni obligé les écoliers à célébrer ses mérites, ni exécuté ses rivaux, comme l’ont fait des dictateurs comme Augusto Pinochet, Mao Zedong ou Saddam Hussein.
Mais les autocrates modernes ne ressemblent pas toujours à leurs prédécesseurs du XXe siècle. Ils ont une image soignée, évitent la violence ouverte et parlent le langage de la démocratie. Ils portent des costumes, organisent des élections et prétendent être porte-paroles de la volonté du peuple. Plutôt que de terroriser leurs citoyens, beaucoup utilisent le contrôle des médias et de la communication pour influencer l’opinion publique et promouvoir des récits nationalistes. Nombre d’entre eux accèdent au pouvoir, non pas par des coups d’État militaires, mais par les urnes.
Au début des années 2000, le politologue Andreas Schedler a forgé le terme « d’autoritarisme électoral » pour décrire des régimes qui organisent des élections sans réelle compétition. Les chercheurs Steven Levitsky et Lucan Way utilisent une autre expression, celle « d’autoritarisme compétitif », pour désigner des systèmes dans lesquels des partis d’opposition existent, mais où les dirigeants les affaiblissent par la censure, par la fraude électorale ou par diverses manipulations juridiques.
Dans mes propres travaux, menés avec l’économiste Sergueï Gouriev, nous explorons une stratégie plus large qu’emploient les autocrates modernes pour conquérir et conserver le pouvoir. Nous l’appelons « autocratie informationnelle » ou « dictature de la manipulation » (spin dictatorship).
Ces dirigeants ne s’appuient pas sur la répression violente. Ils entretiennent plutôt l’illusion qu’ils sont compétents, qu’ils respectent les principes démocratiques et qu’ils défendent la nation – la protégeant de menaces étrangères ou d’ennemis intérieurs qui chercheraient à saper sa culture ou à voler sa richesse.
Le premier ministre hongrois Viktor Orban illustre bien cette approche. Il a d’abord exercé le pouvoir de 1998 à 2002, puis est revenu sur le devant de la scène en 2010, avant de remporter trois autres élections – en 2014, en 2018 et en 2022 – à l’issue de campagnes que des observateurs internationaux ont qualifiées « de menaçantes et de xénophobes ».
Orban a conservé les structures formelles de la démocratie – tribunaux, Parlement et élections régulières –, mais les a systématiquement vidées de leur substance.
Au cours de ses deux premières années de mandat, il n’a nommé que des fidèles à la Cour constitutionnelle, dont le pouvoir est de vérifier la constitutionnalité des lois. Il a contraint des juges à quitter leurs fonctions en imposant un âge de retraite plus bas et il a réécrit la Constitution afin de limiter le champ d’action de leur contrôle judiciaire. Il a également renforcé le contrôle du gouvernement sur les médias indépendants.
Pour soigner son image, Orban a dirigé les fonds publicitaires de l’État vers des médias lui étant favorables. En 2016, l’un de ses alliés a racheté le plus grand quotidien d’opposition de Hongrie, puis a ensuite procédé à sa brutale fermeture.
Orban a également pris pour cible des associations d’avocats et des universités. L’université d’Europe centrale, enregistrée à la fois à Budapest et aux États-Unis, symbolisait autrefois la nouvelle Hongrie démocratique. Mais une loi sanctionnant les institutions accréditées à l’étranger l’a contrainte à déménager à Vienne (Autriche) en 2020.
Pourtant, Orban a, dans l’ensemble, évité le recours à la violence. Les journalistes sont harcelés plutôt qu’emprisonnés ou tués. Les critiques sont discréditées, mais elles ne sont pas interdites. Le pouvoir d’attraction du premier ministre hongrois repose sur un récit selon lequel son pays serait assiégé – par les immigrés, par les élites libérales et par les influences étrangères –, lui seul étant capable de défendre la souveraineté et l’identité chrétienne du pays. Ce discours trouve un écho très fort chez les électeurs âgés, ruraux et conservateurs, même s’il fait figure de repoussoir chez les populations urbaines et plus jeunes.
Au cours des dernières décennies, des variantes de la dictature de la manipulation sont apparues à Singapour, en Malaisie, au Kazakhstan, en Russie, en Équateur et au Venezuela. Des dirigeants, comme Hugo Chávez et le jeune Vladimir Poutine, ont consolidé leur pouvoir et marginalisé l’opposition en usant d’une violence limitée.
Les données confirment cette tendance. À partir de rapports sur les droits humains, de sources historiques et de médias locaux, mon collègue Sergueï Gouriev et moi-même avons constaté que l’incidence mondiale des assassinats politiques et des emprisonnements par des autocrates avait fortement diminué des années 1980 aux années 2010.
On peut légitimement se demander la question du pourquoi. Dans un monde interconnecté, la répression ouverte a un coût. Attaquer journalistes et dissidents peut inciter des gouvernements étrangers à imposer des sanctions économiques et dissuader les entreprises internationales d’y investir leurs fonds. Restreindre la liberté d’expression risque aussi d’étouffer l’innovation scientifique et technologique ; une ressource dont même les autocrates ont besoin dans les économies modernes fondées sur la connaissance.
Cependant, lors d’épisodes de crise, même les dictateurs de la manipulation reviennent souvent à des tactiques plus traditionnelles. En Russie, Poutine a violemment réprimé les manifestants et emprisonné des opposants politiques. Parallèlement, des régimes plus brutaux, comme ceux de la Corée du Nord et de la Chine, continuent de gouverner par la peur, combinant incarcérations massives et technologies avancées de surveillance.
Mais, dans l’ensemble, c’est la manipulation qui remplace la terreur.
Je m’accorde avec la plupart des analystes pour dire que les États-Unis restent une démocratie.
Pourtant, certaines des tactiques de Trump rappellent celles des autocrates informationnels. Il a attaqué la presse, outrepassé des décisions de justice, exercé des pressions sur les universités pour restreindre l’indépendance académique et limiter les admissions internationales.
Son admiration pour des hommes forts, tels que Poutine, Xi Jinping en Chine et Nayib Bukele au Salvador, inquiète les observateurs. Dans le même temps, Trump dénigre régulièrement ses alliés démocratiques et les institutions internationales telles que les Nations unies et l’Otan.
Certains analystes affirment que la démocratie dépend du comportement de ses politiciens. Mais un système qui ne survit que si les dirigeants choisissent de respecter les règles n’est pas un véritable système résilient.
Ce qui compte le plus, c’est de savoir si la presse, la justice, les organisations à but non lucratif, les associations professionnelles, les églises, les syndicats, les universités et les citoyens disposent du pouvoir – et de la volonté – de tenir les dirigeants responsables de leurs actes.
Les riches démocraties, comme celles des États-Unis, du Canada ou de nombreux pays d’Europe de l’Ouest, bénéficient d’institutions solides – journaux, universités, tribunaux et associations – qui servent de contre-pouvoirs.
Ces institutions aident à expliquer pourquoi des populistes, tels que Silvio Berlusconi en Italie ou Benyamin Nétanyahou en Israël, bien qu’accusés de contourner les règles électorales et de menacer l’indépendance judiciaire, n’ont pas démantelé les démocraties de leurs pays.
Aux États-Unis, la Constitution offre une protection supplémentaire. La modifier exige une majorité des deux tiers dans les deux chambres du Congrès ainsi que la ratification par les trois quarts des États – un obstacle bien plus élevé qu’en Hongrie, où Orban n’a eu besoin que d’une majorité des deux tiers au parlement pour réécrire la Constitution.
Bien sûr, même la Constitution des États-Unis peut être affaiblie si un président défie la Cour suprême. Mais un tel geste risquerait de déclencher une crise constitutionnelle et de lui aliéner des soutiens clés.
Cela ne signifie pas que la démocratie américaine soit à l’abri de tout danger. Mais ses fondations institutionnelles sont plus anciennes, plus solides et plus décentralisées que celles de nombreuses démocraties récentes. Sa structure fédérale, grâce à ses multiples juridictions et ses possibilités de veto, rend difficile la domination d’un seul dirigeant.
Cependant, la montée en puissance de dictatures de la manipulation doit nous interpeller. Partout dans le monde, des autocrates ont appris à contrôler leurs citoyens par des simulacres de démocratie. Comprendre leurs techniques pourrait aider les Américains à préserver la véritable démocratie.
Daniel Treisman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.09.2025 à 15:54
Fabrice Flipo, Professeur en philosophie sociale et politique, épistémologie et histoire des sciences et techniques, Institut Mines-Télécom Business School
Les médias mettent en avant la vérification des faits (« fact checking ») face aux fausses informations (« fake news »). Ils questionnent moins souvent la façon dont les récits sont élaborés (« storytelling »). Quelle pourrait-être la méthode pour construire un discours journalistique objectif et impartial ?
Chacun a entendu parler des fake news, qui seraient supposément propagées par les réseaux sociaux. Nombreux sont les médias qui s’équipent de cellules de « fact checking » censées les contrer. Mais sont-elles efficaces ? Leur critère est souvent de « revenir aux faits ». Pourtant, c’est loin d’être suffisant.
Trois normes sont centrales, en réalité : l’objectivité, la neutralité et l’impartialité. Or, elles sont largement méconnues.
Comment dire le vrai ? Le problème traverse déjà les écrits de Platon, quand il dénonce la rhétorique des sophistes, qu’il juge manipulatrice. C’est encore le cas quand Socrate pointe les limites de l’écrit, qui coupe le lecteur de la réponse possible du rédacteur. L’intelligence artificielle et les réseaux sociaux reconfigurent les enjeux, étant de nouvelles manières d’écrire et d’échanger. Ils ne les inventent pas. La présence de cellules de « fact checking » est à double tranchant, dans la mesure où elles jettent aussi un doute sur la production médiatique restante. Leurs méthodes doivent-elles en effet être réservées à une émission parmi des dizaines d’autres ? Produire le vrai n’est-il pas la raison d’être du journaliste, de tous les instants ? Et les réseaux sociaux ne sont-ils pas aussi une manière d’informer sur ce que les médias dominants négligent ? A qui faire confiance, alors ? Sur quels critères ? Le problème est pratique et concret.
Face aux « fake news », la réponse la plus courante consiste à « vérifier les faits ». On parle alors de « fact checking », à l’exemple des « Vérificateurs » sur TF1. Vérifier les faits est essentiel, en effet, car certaines informations sont tout simplement fausses. Les conséquences peuvent être immenses, à l’exemple des « armes irakiennes de destruction massives », qui n’existaient pas, mais ont servi à justifier l’entrée en guerre des États-Unis face à l’Irak, en 2003. Mais ce n’est pas le seul problème. La manière dont les faits sont sélectionnés et racontés est une difficulté distincte. La sélection est inévitable, du fait des formats, et aucun choix n’est neutre.
Ne montrer que les points de deal, dans une cité, n’est pas plus neutre que de ne montrer que le chômage massif qui pousse les jeunes vers l’argent facile. La manière d’enchaîner les faits est également déterminante.
Par exemple, enchaîner les faits divers dramatiques à l’exclusion de toute autre considération enferme le public dans une histoire : celle de l’insécurité. Le besoin de sécurité peut ainsi être fabriqué, sans que l’insécurité objective n’ait changé. L’histoire ainsi construite est-elle vraie, est-elle fictive ? Il n’y a souvent pas très loin de la narration des faits au storytelling ou art de raconter à un public les histoires qu’il a envie d’entendre.
Une autre réponse est possible. Elle prend appui sur un fait saillant caractéristique des questions qui sont abordées dans les médias : leur caractère controversé. Un fait divers, tel qu’une attaque au couteau de la part d’un jeune, est diversement interprétable : insécurité ou résultat inévitable de suppression des budgets de l’éducation populaire ? Les explications sont diverses et ont généralement un lien avec les intérêts de celles et ceux qui les formulent – femmes, jeunes, commerçants, associations, etc. Comprendre le fait et pouvoir l’expliquer implique de faire une place à l’interprétation, laquelle procède de la confrontation de points de vue antagoniques. Les faits ne parlent pas d’eux-mêmes de manière univoque.
Comparons avec ce qui se passe dans un tribunal. Aucun juge ne se prononce sur le simple établissement des faits. Qui serait capable de les présenter de manière neutre ? Personne.
Le juge écoute donc, tour à tour, la défense, l’accusation et les témoins. Chacun d’entre eux produit les faits qui leur paraissent pertinents et significatifs. Un arbitre procède de la même manière, quand il doit rendre une décision. Il ne se contente pas de constater. Il écoute un point de vue, un autre, fait appel éventuellement au replay, etc. et finit par trancher.
L’interprétation prend du temps, et c’est elle qui passe à la trappe avec la prétention de « s’en tenir aux faits » ou, pis, avec la tentation de verser dans la chasse au scoop et le souci de « faire de l’audience ». Tout fait un peu complexe implique qu’une enquête soit menée pour pouvoir être compris. C’est la règle. Sans cela, ce n’est pas le tribunal de la vérité qui est dressé, mais la conclusion hâtive, voire le procès stalinien.
La question de la formation du jugement en situation controversée se pose aussi pour les enseignants. La question a donc fait l’objet d’un travail de deux ans impliquant une vingtaine d’enseignants de l’Institut Mines-Télécom, enquêtant, par exemple, sur les normes sur lesquelles s’appuient les juges, les arbitres, ou encore les enseignants confrontés à des controverses.
Trois normes procédurales se dégagent de l’analyse. La première est la neutralité. Un bon jugement ne doit pas chercher à changer les faits ni même les interprétations que les diverses parties en donnent. Il s’interdit d’interagir avec eux. La seconde est l’impartialité. À la manière d’un juge ou d’un arbitre, elle enjoint d’écouter tous les points de vue afin de construire une vision partagée de la situation. Ce résultat ne se trouvait dans aucun d’entre eux, pris de manière isolée. C’est pourquoi l’impartialité ne se confond pas avec la neutralité. Le troisième critère est l’objectivité. Les faits sur lesquels les points de vue raisonnent doivent tous être solides, à la manière des preuves jugées recevables dans un tribunal. Et leur solidité dépend de la manière dont le sujet et l’objet ont interagi.
Quelle est la méthode, alors ? Tout d’abord, ne pas confondre l’information avec le militantisme, le fait d’informer avec le fait de vouloir changer la situation. C’est la neutralité.
Ensuite, confronter les principaux points de vue, sans négliger les « signaux faibles ». Quand un point n’est traité qu’avec un seul expert, et plus encore si cet expert est toujours le même, ou quand des faits similaires sont abordés en donnant toujours la parole aux mêmes, alors nous sortons des critères d’un bon jugement. Par exemple, ne s’intéresser à une grève qu’en donnant la parole aux usagers mécontents revient à dresser un argumentaire à charge contre les grévistes, dont la parole n’est pas relayée. Et cela vaut aussi pour les scientifiques. L’océan du climatologue est bien différent de celui du spécialiste des requins.
Enfin, s’assurer de la solidité des faits, de leur résistance, en ayant en tête que les scientifiques sont bien souvent en désaccord entre eux. Ces trois normes sont ce que Kant appelait des « idées régulatrices », c’est-à-dire des idéaux qui indiquent des directions mais ne peuvent jamais être parfaitement réalisés.
Chacun pourra constater à l’aune de ces trois normes que les médias classiques (télévision, presse) ne sont pas forcément de meilleure qualité que les réseaux sociaux. Ils ont une ligne éditoriale, c’est-à-dire une manière générale d’interpréter la réalité, qui diffère d’un média à un autre. Ils vont donc avoir tendance à inviter les experts qui la confortent, à accumuler les faits qui vont dans leur sens et à mettre en doute ceux qui la remettent en cause.
Le gendarme de l’information veille, certes, aux abus les plus évidents. Ainsi, c’est pour avoir trop réduit la diversité de ses sources que la chaîne C8 a été interdite d’antenne.
En réalité, il est rare que les médias mentent ouvertement. La ficelle est trop grosse, et nuirait très fortement au média dès lors qu’elle serait dévoilée. C’est par le manque de neutralité et d’impartialité que passe la plus grosse des fake news. Les règles du storytelling le savent bien, d’ailleurs. Une bonne histoire doit être crédible, du point de vue du public récepteur. Et une belle histoire est bien plus difficile à remettre en cause qu’un fait qui se révélerait erroné.
Le raisonnement qui vaut pour les médias vaut aussi pour l’expertise, puisque celle-ci a pour but d’éclairer la décision. Si l’information apportée n’est ni neutre, ni impartiale, ni objective, alors la décision ne le sera pas non plus. Les mêmes règles doivent donc procéder au choix des experts dans une prise de décision.
Fabrice Flipo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.09.2025 à 15:14
François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université
Lundi 1er septembre, le premier ministre François Bayrou entame des consultations avec les principaux dirigeants des partis représentés à l’Assemblée nationale à propos de son projet de budget pour 2026. Un autre budget est-il possible ? Peut-on à la fois réduire l’endettement, sans casser la croissance, tout en réduisant les inégalités ?
Cette année, en France, l’État versera 68 milliards d’intérêts aux marchés financiers. Au-delà de cette dépense contrainte, il déboursera 91 milliards d’euros de plus que ses recettes : le total de ses dépenses hors charges d’intérêts sera de 1 627 milliards d’euros, alors qu’il ne percevra que 1 535 milliards de recettes. Ce sont donc 159 milliards d’euros (91+68) qu’il faudra « trouver » en 2025, puis 170 milliards d’euros en 2026, si rien ne change dans la gestion des finances publiques.
Pour s’opposer aux changements proposés par le gouvernement Bayrou, certains affirment que le niveau de la dette publique n’est pas un problème. Ils ont raison, mais uniquement dans un contexte particulier : si, chaque année à l’avenir, l’augmentation de la richesse créée en France est suffisante pour compenser les intérêts payés. Les prévisions pour 2025 indiquent que le taux d’intérêt sur la dette sera de 2,2 %, alors que la croissance ne sera que de 2 %. Il y aura donc un besoin de financement d’environ 7 milliards d’euros en 2025.
Même si les dépenses de l’État hors charges d’intérêts étaient égales à ses recettes, le surplus de revenus créés en 2025 serait inférieur de 7 milliards d’euros aux intérêts à couvrir sur la dette publique. Cela augmentera mécaniquement le ratio dette/PIB (la dette, augmentée de ses intérêts, croissant plus vite que le PIB). Pour 2026, la hausse des taux d’intérêt et le contexte international morose ne laissent pas envisager une croissance économique supérieure au taux d’intérêt, permettant de stabiliser la dette, même si les dépenses hors charges d’intérêts étaient égales aux recettes publiques.
Ainsi, le contexte conjoncturel (faible croissance et hausse des taux d’intérêt) doit conduire à s’inquiéter du niveau de la dette : plus il est élevé, plus un taux d’intérêt élevé par rapport au taux de croissance créera de nouveaux besoins de financement, faisant alors exploser la dette. Cette hausse de la charge d’intérêts a évidemment des conséquences immédiates : à niveau de recettes égales, les euros qui y sont consacrés ne peuvent servir à financer l’école, la santé, la sécurité ou les transferts aux ménages.
À lire aussi : « La crise politique est plus inquiétante pour l’économie française que la crise budgétaire seule »
Ne pas voter la confiance, si celle-ci porte sur l’état des finances publiques et le montant d’efforts budgétaires à fournir pour contenir la hausse de la dette, ne semble donc pas fondée économiquement. Toutefois, les pistes avancées par le premier ministre, le 15 juillet dernier, pourraient être amendées, notamment pour conjuguer la réduction de la dette et la préservation de la croissance économique. Cette dernière est d’autant plus nécessaire qu’elle peut contribuer à la réduction du poids la dette.
Tout en réduisant l’écart entre les dépenses hors charges d’intérêts et les recettes publiques, afin de ne pas accroître de façon comptable l’endettement, ces amendements doivent alors poursuivre un double objectif :
soutenir la croissance, car elle facilite la gestion des finances publiques en finançant la charge des intérêts ;
et contenir les inégalités économiques pour que les mesures prises soient majoritairement approuvées dans l’opinion.
Ces mesures budgétaires doivent être calibrées afin qu’elles réduisent graduellement le déficit, d’au moins 40 milliards d’euros en 2026, puis d’une séquence à déterminer pour que le déficit soit ramené à 3 % du PIB en 2029 conformément aux engagements européens de la France. Pour que ces mesures soient efficaces, elles doivent cibler les baisses de dépenses et les hausses de recettes qui réduisent le moins la croissance et n’augmentent pas les inégalités.
Les évaluations faites par le Cepremap et l’i-MIP des deux derniers budgets proposés par les gouvernements Barnier et Bayrou (voir les notes du Cepremap et de l’i-MIP), ont montré que deux types de mesures réduisent fortement la croissance : d’une part, les coupes dans les dépenses de fonctionnement de l’État et des collectivités, et d’autre part, les hausses de prélèvements, ces derniers réduisant peu le déficit du faut des réductions d’assiette qu’ils provoquent.
En revanche, les réductions des transferts indexés sur les revenus du travail (retraites et allocations chômage) permettent à la fois de réduire le déficit et de soutenir la croissance. En effet, ces économies affecteront les seniors qui peuvent, pour les compenser, puiser dans leur épargne s’ils sont retraités ou travailler plus longtemps s’ils sont encore actifs.
Ces mesures permettront à la fois de soutenir la demande par la remise en circulation de l’excès d’épargne accumulée depuis la crise du Covid – principalement par les plus de 60 ans, selon l’Insee (2025) – et d’accroître le taux d’emploi, encore trop faible en France, deux leviers fondamentaux de la croissance. Afin de ne pas creuser les inégalités, les transferts d’assistance, tels que le minimum vieillesse, peuvent être accrus, car tous les seniors ne disposent pas d’épargne ou d’opportunités pour prolonger leur activité.
Graphique 1 : Évolutions depuis 1995 des dépenses et des recettes de l’État (en pourcentage du PIB). Les écarts au début de chaque mandat présidentiel sont en point de pourcentage, comme l’écart minimal (vert) et l’écart maximal (en orange).
Respectant le cadrage budgétaire proposé par le gouvernement Bayrou, les amendements au budget doivent aussi corriger de certains déséquilibres passés. Les évolutions historiques des dépenses publiques et des recettes de l’État indiquent, contrairement aux analyses trop partielles, que les prélèvements sont encore au-dessus de leur niveau moyen de 0,4 point de pourcentage, alors que les dépenses sont encore à plus 3 points au-dessus de leur niveau moyen (entre 1995 et aujourd’hui, les recettes représentent 51 % du PIB et les dépenses 54 %, voir graphique 1). Courir après la hausse des dépenses en augmentant les prélèvements ne semble donc pas être une évidence aujourd’hui.
L’ouverture de négociations que le premier ministre propose doit alors permettre de mieux cibler les mesures réduisant les dépenses. Pour mener cette négociation, les mesures sélectionnées doivent, en premier lieu, soutenir la croissance et contenir les inégalités économiques en favorisant celles qui augmentent la consommation des ménages et le taux d’emploi, et en second lieu, tenir compte des évolutions passées, certains postes de dépenses ayant déjà connu des dérives tendancielles.
Le graphique 2 montre que si la baisse continue de la part des dépenses consacrées au fonctionnement de l’État peut se justifier (-4 points au total), celle consacrée à l’enseignement est plus surprenante (-1,5 point au total), contrastant, en particulier, avec la hausse continue de celle consacrée à la santé (+ 3,3 points au total). Si la perspective est de soutenir la croissance et de contenir les inégalités, il serait opportun d’arrêter de réduire le soutien aux affaires économiques observé pendant la présidence d’E. Macron – comme cela avait aussi le cas pendant celle de J. Chirac, alors qu’il avait fortement crû pendant celle de F. Hollande –, mais aussi parvenir à contenir la part des dépenses consacrées à la protection sociale, en hausse de 1,4 point de PIB depuis 1995. Le choix des postes où se feront les économies budgétaires ne peut donc pas être indépendant des relatifs efforts précédemment consentis et de leurs impacts sur la croissance.
Graphique 2 : Évolutions par mandat présidentiel des dépenses de l’État (en pourcentage du PIB) par postes.
Lecture : Les dépenses de protection sociale ont augmenté de 1,2 point pendant les présidences de J. Chirac, 1 point sous celle N. Sarkozy et 0,3 point sous celle de F. Hollande (soit une hausse totale de 2,5 points). Elles ont baissé de 1,1 point sous E. Macron.
François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.08.2025 à 15:42
Maria Tselika, Assistant Professor of Finance, IÉSEG School of Management
Elias Demetriades, Professeur de finance, Audencia
Kyriaki Tselika, Assistant professeur, Norwegian School of Economics
En juin 2025, un moratoire sur les nouvelles installations d’éolien terrestre et solaire a failli entrer en vigueur. Même si la proposition a finalement été retoquée par le Sénat, cette volte-face politique pourrait avoir des effets délétères durables sur le secteur des renouvelables en France et en Europe. Les explications sont d’ordre économique.
En juin 2025, l’Assemblée nationale française a brièvement approuvé un moratoire sur les nouvelles installations d’éolien terrestre et solaire. La proposition, portée par Les Républicains et le Rassemblement national, a provoqué une vive inquiétude. Elle a finalement été rejetée par le Sénat sous la pression des ministres, des associations professionnelles et des experts européens.
Même si cette mesure n’aura jamais été appliquée, elle a révélé une vulnérabilité profonde : dans un secteur fondé sur la planification de long terme, les revirements politiques soudains sapent rapidement la confiance des investisseurs. Même si l’épisode médiatique n’a duré que quelques semaines, il pourra affecter le secteur de façon durable, pour plusieurs raisons.
D’abord parce que les projets d’énergies renouvelables diffèrent fondamentalement des installations classiques. Selon l’Agence internationale de l’énergie, plus de 80 % des coûts d’un projet solaire ou éolien sont engagés dès la phase de construction, bien avant la vente du premier kilowatt-heure.
Mais aussi parce que l’UE s’est fixé un objectif minimal de 42,5 % de consommation finale d’énergie renouvelable d’ici 2030 dans le cadre des plans Fit-for-55 et REPowerEU. L’Agence européenne pour l’environnement souligne d’ailleurs que l’électricité renouvelable représentait déjà plus de 45,3 % de la production électrique de l’Union européenne en 2023, contre seulement 21 % en 2010. Autrement dit, cela reviendrait, pour la France, à saper des objectifs qu’elle va elle-même devoir tenir en tant qu’État membre.
Ces caractéristiques – investissements initiaux élevés, horizon de rentabilité long, dépendance à la stabilité réglementaire – signifient qu’un climat politique clair n’est pas un luxe : c’est une condition de viabilité.
Même si le Sénat a rejeté le moratoire, les effets d’image demeurent. Le secteur des renouvelables emploie en France plus de 100 000 personnes, qu’il s’agisse de la conception, de la construction, de l’exploitation ou de la recherche et développement (R&D).
Quand les signaux politiques deviennent incertains, les entreprises freinent les embauches, suspendent la formation et dissuadent les jeunes ingénieurs de s’orienter vers ces métiers.
Cette instabilité fragilise aussi la compétitivité économique. Le prix de l’énergie est une base de la production industrielle : si les renouvelables ralentissent et leur prix augmente, la dépendance aux combustibles fossiles – dont les prix sont par nature plus volatils – s’aggrave. Inversement, une augmentation de la production d’énergies renouvelables ne saurait entraîner une baisse de prix comparable du fait de la nature asymétrique du marché des renouvelables.
Selon le rapport Global Energy Perspective 2023 de McKinsey, même si les énergies renouvelables sont aujourd’hui les plus compétitives dans de nombreuses régions du monde,
« la viabilité économique de certains projets reste tributaire de soutiens réglementaires ; sans eux, les capacités pourraient stagner ».
Autrement dit, chaque incertitude sur les renouvelables augmente le coût du financement, qui se répercute ensuite sur les prix payés par les consommateurs et par l’industrie.
L’histoire récente offre d’ailleurs un précédent éloquent. Après la suppression brutale des subventions au solaire en Espagne, au début des années 2010, le montant des investissements s’est effondré. Ainsi que l’écrivent les économistes Pablo del Río et Pere Mir-Artigues :
« Les mesures prises ultérieurement par le gouvernement pour réduire ces coûts, notamment les changements rétroactifs de politique, ont créé de l’incertitude chez les investisseurs et ont fragilisé l’industrie solaire nationale. »
Les énergies renouvelables sont, par définition, intermittentes : la production fluctue selon l’ensoleillement et le vent. On l’a vu plus haut, ces projets nécessitent un engagement financier massif avant toute recette et leur réussite dépend de la prévisibilité du cadre réglementaire, du bon accès au réseau et de l’acceptabilité locale.
McKinsey souligne aussi qu’en Europe, la montée en puissance du solaire et de l’éolien (y compris l’éolien en mer) provoque une hausse des prix négatifs. Cela veut dire qu’à certains moments, les producteurs paient pour écouler leur électricité excédentaire, ce qui illustre l’urgence de renforcer les capacités de stockage et d’adapter la tarification. Sans investissements concomitants dans les réseaux et les batteries, la crédibilité et rentabilité du secteur pourrait s’éroder.
En outre, ces technologies requièrent des efforts continus en R&D et une planification sur plus d’une décennie, qui deviennent difficilement soutenables si les règles changent tous les cinq ans.
Au-delà des enjeux économiques, la politique énergétique relève aussi de la souveraineté. En juillet 2025, le ministre de l’industrie et de l’énergie Marc Ferracci mettait en garde : un moratoire mettrait non seulement des milliers d’emplois en danger, mais aggraverait la dépendance aux énergies fossiles importées. Celles-ci représentent encore environ 60 % des besoins énergétiques de la France et pèsent près de 70 milliards d’euros sur la balance commerciale.
Pendant que la France hésitait, d’autres États européens, eux, ont accéléré. Comme indiqué plus haut, en 2023, la production d’électricité renouvelable a dépassé les 45 % au sein de l’UE. Parmi les États membres, le Danemark fait figure de pionnier : en 2023–2024, plus de 88 % de son électricité provenait des énergies renouvelables, principalement de l’éolien terrestre, en mer et de la biomasse.
L’Union européenne fonde sa stratégie de transition sur la crédibilité de ses engagements. Le Green Deal fixe la trajectoire de neutralité carbone à 2050, et le programme REPowerEU de la Commission européenne entend accélérer l’indépendance énergétique en développant le renouvelable et l’efficacité. Comme le rappelle l’Agence européenne pour l’environnement elle-même :
« les investissements dans l’électricité renouvelable sont par nature de long terme et nécessitent un engagement soutenu en matière de planification, d’autorisations et de raccordement aux réseaux. »
Les investissements mondiaux dans les énergies renouvelables devraient continuer à croître de manière significative au cours des prochaines décennies, à condition que la stabilité réglementaire et l’adhésion de la société soient garanties. En l’absence de visibilité et de politiques cohérentes, les investisseurs orienteront leurs financements vers des pays offrant un cadre plus fiable et des perspectives à long terme plus clairement établies.
Autrement dit, les renouvelables ne sont pas seulement un atout pour le climat. Elles sont aussi un levier de compétitivité et un moyen de sécuriser l’approvisionnement face aux tensions géopolitiques. L’adoption de l’article 5 de la Programmation pluriannuelle de l’énergie, qui fixe les objectifs de la France en matière de planification énergétique (PPE), qui fixe un cap de 58 % d’énergie décarbonée d’ici 2030, est un signal encourageant.
Mais reste à reconstruire la crédibilité. Les changements de cap trop fréquents – comme ce moratoire avorté – sapent la confiance des investisseurs et freinent la structuration de filières industrielles compétitives. À l’inverse, des politiques claires, des réseaux modernisés et des mécanismes de soutien prévisibles peuvent permettre à la France de reprendre une place de premier plan.
Kyriaki Tselika a reçu des financements de FME NTRANS (Grant 296205, Research Council of Norway).
Elias Demetriades et Maria Tselika ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
30.08.2025 à 18:32
Romain Badouard, Maître de conférences en sciences de l'information et de la communication, Université Paris-Panthéon-Assas
Le décès en direct du streameur Jean Pormanove, le 18 août, martyrisé par ses collègues pendant des mois sur la plateforme Kick, pose la question du contrôle des espaces numériques. Comment comprendre l’absence d’intervention des autorités publiques ? Comment limiter la diffusion d’images violentes sur les réseaux ? Entretien avec le chercheur Romain Badouard.
The Conversation : Avant le décès de Jean Pormanove, des signalements ont été faits à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), et la justice a ouvert une enquête en décembre 2024. On s’étonne que rien n’ait été fait pour stopper la production et la diffusion de la chaîne mettant en scène violences et humiliations devant des centaines de milliers d’internautes. Comment l’expliquez-vous ?
Romain Badouard : Ce drame illustre les dysfonctionnements de la régulation des contenus en ligne. On sait depuis les débuts de l’Internet grand public que réguler les contenus présente un certain nombre de difficultés, autant techniques que juridiques et culturelles. Avec la mise en place en 2024 du Digital Services Act (DSA) – le nouveau règlement européen sur la régulation des platesformes, on avait espoir que la régulation serait plus efficace. On se rend compte aujourd’hui qu’il y a encore des trous dans la raquette…
Pourquoi l’Arcom n’a-t-elle pas agi ?
R. B. : Dans les médias, on a accusé l’Arcom de ne rien avoir fait. Mais l’Arcom est une autorité administrative dont le but est de vérifier que les plateformes sont en conformité avec les différentes normes réglementaires. Elle n’a pas pour mission de surveiller les publications des internautes. Ceci dit, l’Arcom aurait pu sanctionner Kick sur la base de sa mission, notamment concernant ses manquements en termes de modération.
La défense de l’Arcom consiste à dire que Kick n’a pas de représentant sur le territoire français, donc que cette plateforme ne relevait pas de ses compétences. Or le droit européen stipule qu’un service numérique accessible sur le territoire européen doit respecter les lois en vigueur dans les États membres. Le DSA impose aussi que ces services aient un représentant sur les territoires où ils diffusent. Ce n’était pas le cas de Kick, alors que ça aurait dû l’être.
Par ailleurs, j’ai constaté que Kick publie effectivement des rapports de transparence sur la manière dont elle modère les contenus, comme l’y oblige le DSA. Mais dans ces rapports, il y a de nombreux manques : le rapport est très flou et très imprécis. On ne sait pas combien de modérateurs sont employés, comment l’intelligence artificielle est utilisée pour détecter les contenus illégaux, aucun chiffre sur le nombre de publications qui ont été retirées ni sur les sanctions qui ont été prises. À ce titre, la plateforme aurait pu être sanctionnée. Dans ce genre de situation, l’Arcom peut ouvrir une enquête administrative. Elle peut aussi infliger des amendes aux plateformes qui ne respectent pas les règles. Enfin, en dernier recours, elle peut exiger que les fournisseurs d’accès à Internet rendent la plateforme inaccessible depuis le territoire français.
Pourquoi ne s’est-il donc rien passé ?
R. B. : Sans doute parce qu’il est compliqué de prendre en charge les milliers de sites qui existent, sachant que toute l’attention médiatique et publique se concentre sur les très grandes plateformes – Instagram, Facebook, X, TikTok, YouTube… Les plus petites passent souvent sous les radars, sauf que, dans le cas de Kick, finalement, les audiences étaient importantes, les manquements connus, et d’autres signaux auraient dû alerter les autorités.
Pourquoi la justice n’a-t-elle pas non plus agi, malgré l’ouverture d’une procédure judiciaire et plusieurs interventions de police ?
R. B. : Dans cette affaire, l’institution censée surveiller les contenus, c’est Pharos, qui a des pouvoirs de police. Or Pharos a reçu des signalements concernant la chaîne Kick qui diffusait les streams de Jean Pormanove – 80 signalements d’après Mediapart, ce qui n’est pas rien. On sait que la police est descendue à plusieurs reprises sur les lieux du tournage, mais ces tournages ont continué et les contenus ont été diffusés, ce qui est assez étonnant.
Il faut sans doute prendre en compte le fait que Jean Pormanove, qui avait été entendu par la police, n’a jamais souhaité porter plainte. Il a confié aux enquêteurs qu’il était consentant par rapport à tous les châtiments qui lui étaient infligés. Cela complique un peu l’action de la justice…
Pour autant, cette situation de streamers qui font l’objet d’une enquête du parquet de Nice dès décembre 2024 et qui poursuivent leur production pendant des mois a beaucoup choqué, et c’est légitime.
**Comment imaginer un système plus efficace pour éviter ce type de situation ?
R. B. : Le nœud du problème est celui de la temporalité de la justice. Ni la police ni l’administration n’ont le pouvoir d’exiger la fermeture d’une plateforme en France : seule la justice a ce pouvoir – ce qui est une bonne chose pour notre démocratie. Or, la justice prend du temps pour enquêter, juger et sanctionner. Ce qui manque, c’est un moyen d’agir rapidement pour bloquer les contenus qui sont manifestement illégaux et dangereux.
Il est donc nécessaire de compléter l’arsenal juridique dans le domaine. L’une des pistes à explorer, c’est de donner des moyens à la justice pour prendre des décisions rapides, bloquer des contenus, des plateformes, des chaînes qui ont des comportements problématiques, au moins de manière temporaire, pendant qu’une enquête suit son cours.
Mais la justice agit déjà très rapidement dans certains cas, comme les vidéos terroristes ou pédopornographiques…
R. B. : Il faut savoir que les publications des internautes sur les plateformes relèvent de la législation sur la liberté d’expression. Mais il y a effectivement certaines exceptions à cette liberté d’expression : les contenus terroristes et la pédopornographie. Dans ces cas de figure, la justice peut agir beaucoup plus vite, et les plateformes doivent être capables de les retirer en moins d’une heure. Elles ont d’ailleurs mis en place des systèmes interplateformes pour repérer et effacer ces contenus en quelques minutes, voire quelques secondes. Donc, techniquement parlant, c’est possible.
Notons qu’il y a un autre cas de figure où la régulation est très efficace, c’est celle du droit d’auteur. Les plateformes ont été proactives, car elles redoutaient des procès d’ayants droit. Par exemple, sur YouTube, des systèmes automatiques détectent la réutilisation de contenus protégés par le droit d’auteur avant publication. Cela prouve que lorsqu’elles le veulent, les plateformes trouvent des solutions.
Le problème, lorsqu’il s’agit des publications quotidiennes des internautes, est toujours de trouver la bonne mesure entre lutte contre les contenus illégaux et protection de la liberté d’expression. Car une législation trop contraignante en la matière peut également avec des conséquences néfastes.
La diffusion de contenus violents, des suicides, d’humiliations, de discours de haine ne sont pas protégés par les principes de la liberté d’expression. Pourquoi seraient-ils tolérés sur Internet alors qu’ils sont sanctionnés par la loi dans d’autres contextes ?
R. B. : Effectivement, il s’agit d’actes interdits par la loi et les platesformes ont l’obligation d’empêcher leur diffusion. Les grosses platesformes commerciales le font, ou tentent de le faire, mais les plus petites – comme Kick – essayent de manière très malsaine de nourrir leur modèle économique de ce type de contenus, en visant un public particulier. Elles sont plus difficiles à surveiller, car elles sont nombreuses et moins visibles. Par ailleurs, selon la législation européenne, la surveillance des contenus incombe d’abord aux plateformes.
Ne serait-ce pas plus simple d’inverser la logique en demandant aux plateformes d’être responsable des contenus publiés comme des médias ? ou de mettre des amendes si dissuasives qu’elles joueraient le jeu de la modération ?
R. B. : Imaginer des amendes très fortes est possible et souhaitable. Au niveau européen, il y a eu des amendes importantes infligées par la Commission européenne à plusieurs géants du numérique, notamment pour abus de position dominante. La Commission nationale de l'informatique et des libertés (CNIL), en France, a imposé de lourdes amendes à Facebook et Google concernant la législation sur les données personnelles. Le DSA est en place depuis peu de temps, mais il doit donner des moyens d’agir et de sanctionner.
Alors, est-ce qu’il faudrait aussi considérer les plateformes comme responsables des contenus à l’instar des médias ? Actuellement, la législation française et européenne donne aux plateformes un statut intermédiaire : elles ne sont pas responsables des contenus, mais ont une responsabilité lorsque des contenus leur sont signalés. Elles doivent agir et doivent par ailleurs respecter une obligation de moyens pour détecter les contenus illégaux.
Si on considérait les plateformes comme légalement responsables des contenus de tous les streamers, cela serait tout de même problématique en termes de créativité et de liberté d’expression – tout ce qui a fait aussi la culture numérique depuis le début des années 2000. Il n’y a pas que des choses atroces mises en ligne, il y a aussi beaucoup de contenus de qualité, de partages d’informations, d’intelligence collective. Si on rend les plateformes responsables de toutes les publications des internautes, alors elles limiteront considérablement les moyens d’expression de ces derniers. On ne peut pas non plus évacuer le fait que ces plateformes sont très populaires, qu’elles sont utilisées par des centaines de millions de personnes. Si, du jour au lendemain, vous bridez TikTok, par exemple, et que la plateforme décide de se retirer du territoire français, vous allez faire beaucoup de mécontents – ce dont les responsables politiques ne veulent certainement pas.
Pour élargir aux grandes plateformes et au DSA, qu’est ce qui fonctionne et qu’est-ce qui ne fonctionne pas ? Il y a eu des plaintes contre TikTok liées à des suicides d’adolescents. Est-ce que le DSA est réellement efficace ?
R. B. : Le DSA est entré en vigueur en février 2024, on commence à avoir un peu de recul pour juger. Pour l’instant, concernant les obligations de transparence, les grandes plateformes ont plutôt obtempéré, elles communiquent sur leur modération, ce qu’elles retirent, comment elles s’y prennent, etc. On se rend compte qu’il y a de bons élèves et de mauvais élèves. Meta ou Google ont plutôt tendance à jouer le jeu parce qu’elles ont un intérêt financier à le faire. TikTok, c’est beaucoup plus problématique : il y a des doutes sur sa volonté de se mettre en conformité. Quant à X, la plateforme affirme ouvertement qu’elle ne respectera pas les règles et qu’elle n’a aucune intention de le faire – ce qui a amené la Commission européenne à ouvrir une enquête à son sujet.
Notons que, même pour les bons élèves, lorsqu’on entre dans le détail, on voit qu’il manque beaucoup d’informations dans les rapports – combien de modérateurs, quelles sanctions, comment fonctionnent leurs algorithmes, etc. La commission a tapé du poing sur la table à l’automne 2024 et elle impose désormais des critères plus précis pour les nouveaux rapports de transparence. Nous verrons en 2025 si les plateformes jouent finalement le jeu.
Quel serait le bilan des régulations mises en place ces dernières années ?
R. B. : On régule plus qu’avant, mais le bilan est mitigé. Le DSA est un progrès indéniable, avec des lacunes, par exemple lorsqu’il s’agit d’intervenir rapidement pour bloquer des contenus ou des plateformes, comme je l’ai déjà indiqué. Au niveau français, où l’on est censé réguler les plateformes de taille plus modeste, il y a aussi des progrès.
L’Arcom a eu de nouveaux pouvoirs dans le cadre du DSA en France – enquêtes, amendes, etc. Par ailleurs, la France a adopté une loi sur la sécurité de l’espace public numérique et imposé des règles qui n’étaient pas dans le DSA – par exemple, l’interdiction des sites pornographiques qui ne vérifient pas l’âge des utilisateurs.
On ne peut nier qu’il y a une volonté du politique de ne plus laisser l’espace public numérique sans régulation. Les lois existent, l’enjeu relève davantage de leur application.
Romain Badouard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.08.2025 à 16:51
David Vallat, Professeur des universités en management stratégique - chercheur au laboratoire MAGELLAN (IAE de Lyon), iaelyon School of Management – Université Jean Moulin Lyon 3
La polycrise désigne l’interconnexion de crises géopolitiques, environnementales, sociales ou informationnelles qui se renforcent mutuellement et qui fragilisent nos sociétés démocratiques. Ce phénomène est le symptôme d’un monde devenu structurellement instable, où l’action publique, si elle ne se transforme pas en profondeur, est condamnée à l’impuissance.
Nous vivons une époque marquée par une instabilité permanente, dans laquelle les crises se succèdent ou se superposent, et où les structures sociales et politiques peinent à conserver leur cohérence. Les crises qui nous menacent ne sont plus ponctuelles ni isolées, mais interconnectées ; elles renforcent les fragilités structurelles des sociétés contemporaines, à commencer par un individualisme galopant, fruit de la postmodernité.
Nous vivons au temps des polycrises, menaces internes et externes pour nos sociétés démocratiques. La notion de polycrise renvoie à l’imbrication de crises multiples : financières (par exemple, celle des subprimes de 2008), sanitaires (Covid-19), géopolitiques (guerre en Ukraine, guerre des proxys de l’Iran contre Israël), environnementales (climat, biodiversité), sociales (migrations, inégalités) et informationnelles (désinformation, guerres narratives). Ces crises ne sont pas juxtaposées, mais s’entrelacent et se renforcent.
Ainsi la crise des subprimes, née du marché immobilier aux États-Unis, s’est rapidement transformée en crise financière mondiale, puis en crise de la dette souveraine en Europe. C’est dans ce contexte de fragilisation économique que l’Europe a dû faire face à un afflux massif de migrants consécutif à la guerre civile en Syrie. De même, la pandémie de Covid-19 a mis en lumière la dépendance logistique à des chaînes d’approvisionnement mondialisées, provoqué une onde de choc économique et accentué les inégalités, tout en fragilisant la légitimité des institutions. La situation économique de l’Europe se dégrade d’autant plus que les États européens doivent investir en armement pour faire face aux velléités impériales russes.
Ces enchaînements ne relèvent pas du hasard : ils traduisent l’interconnexion structurelle des systèmes modernes. L’accélération des flux – de capitaux, de données, de personnes, de virus – rend les sociétés extrêmement sensibles aux perturbations.
La mondialisation, en abolissant les distances, a créé un monde « petit », mais aussi extraordinairement fragile. Un effondrement énergétique local peut avoir des répercussions alimentaires, sécuritaires et sociales à l’échelle planétaire. Par exemple la guerre en Ukraine a contribué à la hausse du prix du blé en Égypte.
Le défi est que ces crises sont multiniveaux. Elles touchent à la fois l’individu (perte de repères, isolement), les institutions (crise de confiance) et les États (incapacité à coordonner des réponses globales). Cette complexité rend difficile la hiérarchisation des priorités. À quelles urgences répondre d’abord ? À la crise climatique, à la dette publique, à la sécurité énergétique, à l’implosion des services publics, à la cybersécurité ? Chaque réponse sectorielle risque d’aggraver une autre dimension du problème.
La modernité s’est construite sur des fondations solides : la foi dans le progrès, dans la raison, dans la science, dans l’autonomie de l’individu et dans la séparation des sphères religieuses et politiques. Le récit moderne visait l’émancipation et la maîtrise du monde. Selon Francis Fukuyama, la fin de la guerre froide avait même marqué « la fin de l’Histoire », une forme d’aboutissement idéologique avec la démocratie libérale comme horizon indépassable. Cela signifie que toute contradiction fondamentale dans la vie humaine pourrait être résolue dans le cadre du libéralisme moderne, sans qu’il soit nécessaire de recourir à une structure politico-économique alternative. Dès lors, les relations internationales se concentreraient principalement sur les questions économiques et non plus sur la politique ou la stratégie, réduisant ainsi les risques de conflit violent d’envergure internationale.
Mais cette vision a été largement remise en cause par la postmodernité – pour ne pas dire par les attaques du 11-Septembre (2001). En 1979, Jean-François Lyotard parle de « condition postmoderne » pour désigner l’effondrement des « grands récits » (libéralisme, Lumières, etc.), au profit d’une fragmentation de la connaissance et des identités. Ce relativisme culturel, conjugué à une désaffection des institutions, conduit à une perte de sens collectif.
Zygmunt Bauman prolonge cette analyse en introduisant le concept de « modernité liquide », dans laquelle les structures sociales sont devenues instables, les identités mouvantes, et les engagements précaires. Le nomadisme devient une caractéristique centrale de l’individu « liquide » : il traverse sa propre vie comme un touriste, changeant de lieu, d’emploi, de conjoint, de valeurs, d’engagements, et parfois d’orientation sexuelle, de genre, d’identité. L’individu devient son propre repère dans un environnement incertain et mouvant. Le choix individuel devient déterminant et l’affirmation de soi par la consommation et par la mise en scène sur les réseaux sociaux prime sur tout cadre commun.
Dans les sociétés liquides, la perte des repères collectifs va de pair avec une crise du sens. Ce vide symbolique est comblé non pas par un retour à des récits communs structurants, mais par une prolifération de narratifs concurrents, souvent émotionnels, simplificateurs et orientés. Ce phénomène est intensifié par l’usage massif des réseaux sociaux, devenus le principal canal de diffusion de l’information – ou de sa falsification. La guerre contemporaine n’est donc plus seulement militaire ou économique : elle est aussi cognitive.
Giuliano da Empoli a bien théorisé cette dynamique dans l’Heure des prédateurs (2025). Il y montre comment les plateformes numériques – pensées dès leur origine pour capter l’attention – sont devenues des outils de guerre idéologique. En favorisant les contenus clivants et émotionnels, elles structurent un espace public fragmenté, polarisé, où la vérité devient relative. Le factuel est concurrencé par le ressenti, et la viralité prime sur la véracité. La réalité devient une construction narrative mouvante, au sein de laquelle chaque communauté s’enferme dans ses propres certitudes, nourries par des algorithmes de recommandation qui amplifient les biais de confirmation.
La manipulation informationnelle est ainsi devenue un enjeu stratégique majeur. Des acteurs étatiques, comme la Russie, exploitent cette faiblesse des démocraties pour influencer les opinions publiques adverses. Ces campagnes n’ont pas seulement pour but de convaincre, mais de désorienter, de diviser et de démoraliser.
À lire aussi : Le « sharp power », nouvel instrument de puissance par la manipulation et la désinformation
Comme l’explique da Empoli, le chaos devient une stratégie de pouvoir : affaiblir le lien social, c’est affaiblir la capacité de résistance collective. Non seulement les réponses aux polycrises sont moins efficaces, mais l’ampleur des crises est amplifiée par l’effet « caisse de résonance » des réseaux sociaux. La manipulation informationnelle vise aussi à faire apparaître celui qui décide au mépris des règles, de la loi, des contraintes, comme le vrai leader qui écoute son peuple. Ainsi les Trump, Poutine, Bolsonaro, etc. seraient les dignes descendants de Cesare Borgia (le prince de Machiavel) qui agissent plus qu’ils ne parlent. En agissant, ils produisent un narratif qui leur est favorable.
Cette guerre des narratifs s’inscrit également dans une logique postmoderne où les signes prennent le pas sur les faits. Dans une société liquide, où les institutions sont fragilisées, les citoyens en viennent à se méfier de tout : des médias traditionnels, des experts, des politiques. Le complotisme devient un refuge identitaire, et l’émotion remplace la délibération rationnelle.
Les conséquences sont profondes : la décision publique devient plus difficile à légitimer, les conflits sociaux s’enveniment, et les sociétés entrent dans une spirale de défiance. Ce brouillage informationnel complique également la gestion des crises. La pandémie de Covid-19 ou l’invasion russe en Ukraine ont été accompagnées de vagues massives de fausses informations, entravant les réponses sanitaires ou diplomatiques.
Dans ce contexte, repenser la place de la raison, de la vérification des faits et de la formation à l’esprit critique devient une priorité. La guerre des narratifs n’est pas seulement une bataille pour l’attention : c’est une lutte pour la souveraineté cognitive des sociétés.
Les polycrises que nous affrontons ne relèvent ni de l’accident ni du hasard. Elles sont les symptômes d’un monde devenu structurellement instable, où l’action publique, si elle ne se transforme pas en profondeur, est condamnée à l’impuissance. Le temps des ajustements à la marge est révolu. Ce qu’il faut, c’est une réinvention stratégique de la gouvernance, capable de penser et d’agir dans la complexité, sans se réfugier dans l’idéologie, l’ignorance volontaire ou le court-termisme.
L’un des paradoxes contemporains est que, face à l’incertitude, l’État est plus que jamais attendu, mais moins que jamais préparé – la crise Covid en a fait la démonstration). Réduit trop souvent à une logique de gestion ou de communication, l’État a vu s’affaiblir sa capacité à anticiper, à mobiliser, à coordonner.
Il est urgent de réhabiliter un État stratège, capable de pouvoir exercer sa souveraineté de manière démocratique et éclairée, comme nous y invite de façon détaillée le Conseil d’État dans une étude annuelle.
Quels points retenir de ce document très riche concernant la dialectique polycrise-société liquide ? D’abord, il s’agit d’identifier nos fragilités, nos dépendances – en premier lieu, la dette publique et notre affaiblissement économique relatif. Les rapports de force entre États sont plus vifs que jamais : il est également nécessaire de sortir de l’irénisme, qui minimise les risques et les menaces, et d’assumer une logique de puissance, trop peu souvent associée à notre culture démocratique. Il faut, enfin, revivifier la démocratie en donnant plus d’autonomie et de responsabilité aux citoyens, tout en rappelant constamment les valeurs républicaines qui fondent notre socle commun.
David Vallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.08.2025 à 17:05
Andrew Latham, Professor of Political Science, Macalester College
En plus de la puissance militaire, les États peuvent désormais compter sur de nouveaux outils pour exercer leur puissance. On connaissait le « soft power », qui exploite l’attractivité du pays qui l’exerce. Il faudra désormais compter avec le « sharp power », mobilisant les outils de la manipulation et de la désinformation.
« Le fort fait ce qu’il peut faire, et le faible subit ce qu’il doit subir. » C’est ce qu’écrivait Thucydide dans son Histoire de la guerre du Péloponnèse » : cette observation lucide de l’historien grec reste d’actualité. Mais dans le monde actuel, la puissance ne se manifeste pas toujours sous la forme d’une armée nombreuse ou d’une flotte de porte-avions. Les moyens par lesquels la puissance s’exprime se sont diversifiés, devenant plus subtils, plus complexes et souvent plus dangereux.
À lire aussi : Ce qui conduit à la guerre : les leçons de l’historien Thucydide
Il devient ainsi insuffisant de parler du pouvoir en termes purement militaires ou économiques. Il faudrait plutôt en distinguer trois formes, qui se recoupent mais restent distinctes : le « hard power », le « soft power » et le « sharp power » – en français, « pouvoir dur », « pouvoir doux » et « pouvoir tranchant ».
Ces trois catégories de pouvoir sont plus que de simples concepts académiques. Ce sont des outils concrets, à la disposition des dirigeants, qui permettent respectivement de contraindre, de séduire ou de manipuler les populations et les gouvernements étrangers, dans le but d’influencer leurs choix. Ils sont parfois mobilisés de concert, mais s’opposent souvent dans les faits.
Le « hard power » est probablement la plus connue des trois formes de puissance, et celle sur laquelle les gouvernements se sont appuyés pendant la majeure partie de leur histoire. Il désigne la capacité à contraindre par la force ou la pression économique, et se traduit par l’utilisation de chars, de sanctions, de navires de guerre et de menaces.
On le voit à l’œuvre lorsque la Russie bombarde Kiev, lorsque les États-Unis envoient des porte-avions dans le détroit de Taïwan ou lorsque la Chine restreint sont commerce extérieur vers des pays étrangers pour punir leurs gouvernements. Le « hard power » ne demande pas : il exige.
Mais la coercition seule permet rarement d’exercer une influence durable. C’est là qu’intervient le « soft power ». Ce concept, popularisé par le politologue états-unien Joseph Nye, fait référence à la capacité de séduire plutôt que de contraindre. Il fait jouer la crédibilité, la légitimité et l’attrait culturel d’une puissance.
Pour rendre cette notion plus concrète, on peut penser au prestige mondial des universités américaines, à la portée inégalée des médias anglophones ou encore à l’attrait qu’exercent les normes juridiques, politiques ou la culture occidentales. Le « soft power » persuade ainsi en proposant un modèle enviable, que d’autres pays sont susceptibles de vouloir imiter.
Cependant, dans le contexte actuel, le « soft power » perd du terrain. Il repose en effet sur l’autorité morale de la puissance qui l’exerce, dont la légitimité est de plus en plus remise en question par les gouvernements du monde entier qui s’appuyaient auparavant sur le « soft power ».
Les États-Unis, qui restent une puissance culturelle incontournable, exportent aujourd’hui non seulement des séries télévisées prestigieuses et des innovations technologiques, mais aussi une polarisation et une instabilité politique chroniques. Les efforts de la Chine pour cultiver son « soft power » à travers les instituts Confucius et les offensives de communication culturelle sont constamment limités dans leur efficacité par les réflexes autoritaires du pays.
Les valeurs autrefois considérées comme attrayantes sont ainsi désormais perçues, à tort ou à raison, comme hypocrites et creuses. Cela a ouvert la voie à un troisième concept : le « sharp power ». Celui-ci fonctionne comme un négatif du « soft power ». Inventé par le National Endowment for Democracy en 2017, le terme vise à décrire la manière dont les États – autoritaires en particulier, mais pas exclusivement – exploitent l’ouverture politique des démocraties pour les manipuler de l’intérieur.
Le « sharp power » ne contraint pas, ne séduit pas non plus… mais il trompe. Il s’appuie ainsi sur la désinformation, les réseaux d’influence, les cyberattaques et la corruption utilisée comme arme stratégique. Il ne cherche pas à gagner votre admiration, mais à semer dans la population confusion, division et doute.
Des exemples d’utilisation du « sharp power » sont, par exemple, les ingérences russes dans les élections, le contrôle chinois des algorithmes de certains réseaux sociaux ou les opérations d’influence secrètes menées par les États-Unis contre la Chine.
Le « sharp power » consiste ainsi à façonner les discours dans les sociétés étrangères sans jamais avoir à tirer un coup de feu ni à conclure d’accord commercial. Contrairement au « hard power », il passe souvent inaperçu, jusqu’à ce que ses objectifs soient atteints et que le mal soit fait.
Le paysage diplomatique actuel est rendu particulièrement difficile à lire par le fait que ces formes de pouvoir ne sont pas clairement séparées, mais s’entremêlent. L’initiative chinoise des Nouvelles routes de la soie combine ainsi le « hard » et le « soft power », tout en s’appuyant discrètement sur des tactiques de « sharp power » pour faire pression sur ses détracteurs et pour réduire au silence les dissidents. La Russie, qui ne dispose pas du poids économique ni de l’attrait culturel des États-Unis ou de la Chine, a dû apprendre à maîtriser le « sharp power », et l’utilise désormais pour déstabiliser, distraire et diviser ses adversaires géopolitiques.
Cette situation crée un dilemme stratégique pour les démocraties libérales, qui jouissent toujours pour l’instant d’un statut dominant en matière de « hard power » et d’un « soft power » résiduel lié à l’attractivité de leur modèle. Elles sont cependant vulnérables aux outils du « sharp power » et sont de plus en plus tentées de l’utiliser elles-mêmes. Au risque, en essayant de répondre à la manipulation par la manipulation, de vider de leur substance leurs propres institutions et valeurs.
Andrew Latham ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.