LePartisan - 873 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 11 dernières parutions

19.12.2025 à 09:00

La « Résurrection » de Mahler par Paavo Järvi

La Philharmonie de Paris a vibré au rythme de la Résurrection de Mahler, portée par un Orchestre de la Tonhalle de Zürich au sommet de sa forme et magistralement dirigé par Paavo Järvi. Le chef est parvenu, avec son autorité souple et son sens affûté de la dramaturgie, à déployer l’architecture monumentale de la Symphonie n° 2 sans jamais céder à l’emphase. Dès les premières mesures, Järvi installe une tension organique, sculptant les masses sonores avec une clarté remarquable. Les contrastes mahlériens — sarcasmes dansants, élans pastoraux, déflagrations funèbres — trouvent ici une cohérence narrative rare. Chaque pupitre respire, écoute, répond : le travail d’orfèvre du chef sur les dynamiques et la texture orchestrale confère à l’ensemble une lisibilité saisissante. L’« Urlicht », confié à Anna Lucia Richter, une mezzo au timbre lumineux, ouvre la porte à un final d’une intensité presque charnelle. Dans la montée inexorable vers la lumière, Järvi maintient une tension parfaitement maîtrisée, conduisant orchestre, chœur et solistes (la soprano Mari Eriksmoen) vers un sommet d’émotion collective. Le chœur (Zürcher Sing-Akademie), admirable de tenue, répond avec ferveur à la direction inspirée du maestro . Au terme de cette apothéose, la salle a fait un triomphe au chef, aux instrumentistes et aux chanteurs : Paavo Järvi signe une lecture profondément humaine de Mahler, véritable célébration de l’espérance. Un concert dont on sort grandi, et peut-être un peu réconcilié avec le monde. Gustav Mahler, Symphonie n° 2 « Résurrection » Distribution : Tonhalle-Orchester Zürich ; Zürcher Sing-Akademie ; Paavo Järvi, direction ; Mari Eriksmoen, soprano ; Anna Lucia Richter, mezzo-soprano.

18.12.2025 à 09:00

« Déshumanités numériques » : entretien avec Dominique Boullier

Dans son dernier livre Déshumanités numériques , Dominique Boullier, professeur des universités émérite en sociologie à Sciences Po Paris (CEE), fait le pari de proposer une analyse informée de l’actualité du numérique, sans cesse changeante et qui complique la tâche des chercheurs qui s’efforcent de le comprendre sur le temps long. Son essai s’inscrit dans la continuité de ses précédents ouvrages comme Propagations. Un nouveau paradigme pour les sciences sociales (Armand Colin, 2023), Comment sortir de l'emprise des réseaux sociaux (Le Passeur éditeur, 2020) ou encore Sociologie du numérique (Armand Colin, 2019 pour la dernière édition). Déshumanités numériques offre à la fois une critique acérée et informée des pratiques des géants du numérique et avance surtout de nombreuses propositions pour une meilleure régulation de ces derniers, via l’évolution du droit et des responsabilités des plateformes. Cette démarche constructive fait tout l’intérêt d’un livre qui ne se cantonne pas au seul registre de la dénonciation, certes légitime mais très répandu dans la production éditoriale actuelle au sujet du numérique.   Nonfiction.fr : Vous invitez à distinguer les GAFAM, en dépit de leur regroupement sous un même acronyme. Qu’est-ce qui les différencie ? Dominique Boullier : Les distinguer oblige à prendre en compte leur généalogie et leur détachement plus ou moins grand avec la culture industrielle. Apple et Microsoft sont nées à la fin des années 1970, ont conçu des machines et des logiciels qui sont devenus le socle de l’information personnelle, des PC et des smartphones et continuent à en produire. Leur modèle économique, bien que différent, ne repose donc pas sur leurs fonctions de plateforme à l’origine, ce qu’elles sont devenues pourtant depuis (dès iTunes et plus tardivement pour Microsoft avec LinkedIn puis Copilot). Elles ne dépendent donc pas de la publicité comme le font Google et Meta, qui sont nées au début des années 2000 (en 1998 pour Google) et qui ont fait leur fortune seulement à partir du moment où elles ont pu monétiser par la publicité leur statut de plateforme bâtie à l’origine sur un moteur de recherche et sur un réseau social. C’est en 2008 avec YouTube que le tournant publicitaire est véritablement pris et qu’il va altérer radicalement le Web 2.0 coopératif des années 2000 en le faisant dériver vers un internet marchand de plateforme. Amazon avait déjà lentement construit sa plateforme marchande de son côté au point de devenir la plateforme de toute la vente en ligne. Cette différence entre elles importe car Google et Meta sont les deux firmes entièrement dépendantes de la publicité, ce qui les rend plus fragiles vis-à-vis des effets de réputation qui sont permanents dans ces domaines mais qui les rend puissantes car elles affectent les connaissances, les opinions et les relations du public et de larges pans de la société. C’est pourquoi tous les nouveaux entrants veulent prétendre devenir plateforme, comme X depuis que Musk l’a racheté, en le connectant à toutes ses offres de service comme SpaceX et ses satellites pour en faire une infrastructure de réseau majeure (mais aussi à ses produits industriels comme Tesla, l’ordinateur sur roue comme on dit parfois). C’est aussi le cas de OpenAI qui fait feu de tout bois pour offrir toute la panoplie de services pouvant lui donner un statut de plateforme, c’est-à-dire devenir un point de passage obligé et unique pour tout utilisateur, ce que l’opération « compagnon » est en train de réussir de façon impressionnante. De ces différences naissent des leviers d’action différents en matière de régulation. Pour autant, en quoi semblent-ils unis par un même rapport à l’Etat et à la démocratie ? Avec des différences de rythme et d’intensité, toutes ces plateformes ont fini par adopter un catéchisme libertarien ou même par le pousser dans leur communication. Le manifeste d’indépendance du cyberespace de John Perry Barlow en 1996 en constitue la bible numérique et continue d’être appliqué : « rough consensus and running code », telle est leur devise partagée qui les affranchit de tout Etat de droit au nom d’un code qui court, d’une innovation qui ne doit être freinée par aucune régulation. Le choc culturel avec les Etats, avec le droit en général, est violent et certains nouveaux entrants comme Kalanick de Uber ou Altman de OpenAI sont prêts à tout pour organiser la disruption totale du secteur, quitte à mettre en difficulté leurs concurrents directs qui auraient pu avoir encore, en raison de leur taille et de leur réputation, des soucis de responsabilité alors qu’ils disposaient de technologies équivalentes. Car ce que cette ère de la disruption généralisée entraine, c’est une destruction non seulement des Etats et de l’état de droit mais aussi des conventions, conçues par les industriels eux-mêmes pour organiser le marché et assurer une interopérabilité, des standards, des garanties de sécurité pour le client et pour les autres opérateurs. Désormais, même la culture du test avant mise sur le marché disparait face à l’impératif d’être le premier sur le marché. On le voit avec OpenAI qui a démoli en un mois tous les principes éducatifs installés depuis des dizaines d’années dans les institutions d’enseignement sans anticiper les conséquences de sa mise à disposition gratuite auprès de tous les étudiants, utiles parfois mais néfastes lorsque ChatGPT se transforme en CheatGPT. On le voit aussi avec X et son IA Grok, soumis à un programme politique et algorithmique relativiste qui se permet récemment un négationnisme sans complexe dans ses réponses. J’appelle ces deux entreprises d’IA, des « IA voyous » et nous devrions avoir le même comportement avec ces firmes qu’avec les Etats voyous, c’est-à-dire une mise au ban du droit international et une interdiction d’exercer dans un pays donné tant qu’elles ne reviennent pas dans le droit commun. Certes, les menaces ne sont pas de même nature avec les autres plateformes plus anciennes, qui veulent préserver leur crédibilité et leur attractivité pour les investisseurs mais toutes ces plateformes n’ont que faire des impératifs de la démocratie tant elles sont soumises à leurs objectifs de profitabilité pour leurs actionnaires, au point de traiter les Etats eux-mêmes comme des vassaux, de leur faire la guerre commerciale comme ce fut le cas avec l’Australie et le Canada à propos des droits des médias sur leurs contenus. Cette toute-puissance leur permet d’abandonner même tout impératif sérieux de modération et de laisser les Etats se débrouiller avec les conséquences de leurs actions irresponsables. Sans pour autant s’empêcher d’orienter leurs stratégies d’investissement technologique comme dans le cas de l’IA générative, si consommatrice de ressources. Or, toute cette énergie des IA génératives va servir avant tout à amplifier l’addiction du public à des compagnons omniprésents, à diffuser des connaissances non fiables et à inonder les cerveaux de deep fake désormais si aisés à fabriquer par tout le monde, grâce notamment à Sora là encore mis à disposition du public par OpenAI sans aucun garde-fou. Les démocraties reposent largement sur un dispositif complexe de maintenance d’un régime de vérité fondé sur le contradictoire encadré par une procédure et des collectifs de référence. Or, le droit, la science et les médias qui effectuent cette maintenance de la vérité sont discrédités, disqualifiés face à la réactivité, à l’immédiateté et à la prolifération virale de contenus toujours moins fiables. Quels sont les défauts de l’IA majoritairement développée actuellement ? L’IA générative fondée sur des LLM n’est qu’une des voies possibles de l’IA mais elle est actuellement amplifiée pour des raisons de spéculation financière alors que ses limites et ses défauts sont très bien connus. Ce système d’IA est avant tout opaque, ce qui veut dire incontrôlable, même pour ceux qui l’ont conçu, ce qui nous fait quitter totalement le monde industriel et ses impératifs de fiabilité. C’est pourquoi les IA génératives et conversationnelles, qui hallucinent by-design, gagnent si peu de place dans les entreprises à process industriel ou à décisions critiques : dans la communication, dans l’interaction avec le grand public, cette fiabilité n’est pas indispensable, pense-t-on (à tort car les effets sur les connaissances et sur la perception du vrai et du faux seront très graves). Ensuite, ces LLM opèrent par brute force, ce qui est le degré zéro de l’innovation et de l’optimisation. Cela les conduit à augmenter sans cesse le nombre de paramètres pour tenter de réduire leurs erreurs de prédiction permanentes. Et donc à extraire toujours plus de ressources naturelles pour leurs data centers, à piller encore plus de données et de contenus, quitte même à injecter des contenus synthétiques, c’est-à-dire produits déjà par des IA, provoquant ainsi ce qu’on appelle un model collapse , un effet auto-référentiel où le système s’auto-intoxique et perd toute pertinence dans le monde. Car c’est le problème clé : les ingénieurs des IA génératives et des LLM prétendent se passer d’un modèle du monde comme on le faisait avec les ontologies dans les IA symboliques et les systèmes experts. De ce fait, ils manipulent des données langagières sans aucune théorie du langage, sans référence ni ancrage dans le monde (réel) pour réduire tout cela à une vectorisation dans un espace latent incontrôlable et asémantique (le modèle ne sait rien du monde et ignore ce que peut être le sens, ce qui pour des systèmes fondés sur du matériel linguistique est quand même problématique). Tout cela devient encore plus critique quand on prétend en faire des agents, et l’introduction de modèles du contexte ( Model Context Protocols , MCP) ne résout rien sur ce plan si ce n’est de standardiser la diversité des API.   En quoi diffère-t-elle de l’IA alternative plus vertueuse et reposant sur intelligence collective que vous appelez de vos vœux ? Il n’est pas nécessaire de repartir à zéro pour concevoir des alternatives et il est essentiel du point de vue des politiques publiques et des investisseurs avisés de préserver le pluralisme des solutions car d’autres possibles existent et sont annoncés. L’IA symbolique constitue déjà un acquis important, puisqu’on sait intégrer de la connaissance des experts dans la boucle et apprendre de leurs retours. Tout système d’IA qui prétend automatiser et pire encore « sans supervision », mènera à des catastrophes s’il n’est pas encastré dans ce que j’appelle un « design organisationnel » qui permet de définir (et parfois de réviser) les procédures mêmes de toute organisation, les rôles, les autorisations, les accès, etc. Sur cette base, on peut renforcer avant tout l’intelligence collective pour que l’apprenant soit avant tout la personne (au sein d’un collectif). On peut très bien insérer ces briques d’IA reconfigurées dans une activité collective en s’appuyant sur les savoirs et savoir-faire construits pendant des années par ces personnes. On peut ainsi les valoriser, les mutualiser et en faire la base d’une expertise hybride, mieux située, qui connait le monde et surtout qui reste sous contrôle car elle sera explicite et Open Source. L’IA symbolique si ancienne a déjà beaucoup évolué depuis les systèmes experts car on peut la rendre apprenante de façon robuste et raisonnante de façon explicable, point essentiel pour toute IA décisionnelle. Certains considèrent que ça n’a guère d’importance pour une IA conversationnelle, qu’on range presque dans les catégories de l’ entertainment , comme les compagnons qui vont capter toute notre attention à tout sujet. On le disait aussi des réseaux sociaux qu’on a refusé de réguler tant ils étaient marginaux et ludiques jusqu’au jour où ils ont commencé à être exploités pour encourager à se suicider ou pour changer les comportements électoraux. Et ces réseaux sociaux sont désormais tous équipés d’IA générative, c’est dire le risque. La supposée assistance promise par ces IA génératives engendre des habitudes qui font de nous des assistés, des incompétents, parfois dans notre propre domaine, alors qu’on fait croire qu’il ne s’agit que d’automatiser toutes les tâches pénibles ou répétitives. On oublie de dire toute la valeur ajoutée de ces tâches et tout ce que l’on en apprend et surtout leur nécessaire mobilisation en cas de panne ou de corrections des erreurs si nombreuses des systèmes d’IA générative. Ce qui est certain, c’est qu’une fois la délégation aux machines enclenchée, nous perdons progressivement nos compétences, comme on le voit pour l’usage du GPS. C’est ce que j’appelle les « déshumanités numériques » où nos compétences humaines dégénèrent petit à petit. On doit au contraire réorganiser tout notre schéma d’intelligence artificielle au service des apprentissages humains, pour éviter ce que Soshana Zuboff appelait la « division of learning » entre ces firmes et leurs systèmes qui apprennent sans cesse, alors que nous perdons notre autonomie. Face aux attaques des géants du numérique contre les fondements de nos sociétés et démocraties, notamment à cause de l’architecture virale de leurs réseaux, vous proposez une régulation fondée sur la décélération de la propagation. Quelle forme cette régulation devrait-elle prendre ? Il s’agit bien en effet d’une question de design d’architecture, de code, et non de bonnes pratiques ou de « due diligence » appelant à la bonne volonté. Tout cela est encore trop présent, naïvement ou délibérément, dans les régulations européennes avec les limites que l’on connait désormais. On se focalise sur les émetteurs, les méchants hackers au service de puissances étrangères, on se focalise sur les contenus qui sont trompeurs, qui faussent les débats et l’éducation, on se focalise sur les usagers qui se laissent avoir, qui aiment ça et qui doivent donc être éduqués. Toutes choses qui sont sans aucun doute nécessaires. Mais on oublie ainsi que les algorithmes de toutes ces plateformes ont été délibérément orientés pour favoriser la réactivité, qu’on appelle l’engagement et cela pour des raisons publicitaires puisque les marques sont ainsi ravies de pouvoir afficher des scores de réputation pour leurs investisseurs. L’utilité sociale de cette réactivité est en fait extrêmement réduite (dans des cas d’urgence d’action collective). La plupart du temps, elle se transforme en viralité quasi automatisée, tant les robots et les faux comptes sont nombreux. Ce qui détruit toutes les conditions du débat public car ce sont des contenus conçus pour faire réagir immédiatement (par un like ou un partage) qui sont poussés par les algorithmes et non ceux qui font réfléchir. Or, le débat public demande du temps, de l’argumentation, des données fiables et de la vérification. Et cela dans notre vie quotidienne aussi, si nous ne voulons pas être nous-mêmes réduit à l’état d’automates ou de zombies. Pour décélérer, les bonnes intentions ne suffisent pas, il faut attaquer le modèle publicitaire au cœur et notamment en taxant toutes les enchères pour prélever ainsi des revenus pour l’Etat. Mais il faut toucher aussi le mécanisme de viralité en freinant notre propre réactivité d’utilisateur. Pour cela, les plateformes qui veulent opérer en France doivent se voir imposer un cahier des charges, qui contiendra un dispositif de ralentissement à installer obligatoirement sur leurs interfaces. Ce serait un tableau de bord, comportant un compteur affiché en permanence au bas de chaque application et indiquant le temps passé sur le service (qui est actuellement disponible au fond du système), le type de réactions produites (likes, post, republication/ partage, commentaires), leur fréquence pour 24h et les délais de réaction. Chaque 24h, le compteur est remis à jour mais cet indicateur permet à chacun de s’autoréguler en plaçant un seuil d’alerte pour éviter d’inonder ses amis, le système et son propre cerveau de réactions abusives. On peut ensuite passer à un seuil fixé par un groupe auquel on appartient qui ne souhaite pas être intoxiqué par cette emprise de la réactivité, puis à un seuil fixé par le service lui-même dans ses CGU (donc explicite à l’inscription ou adapté selon les situations) et enfin à un seuil fixé par les autorités en situation de crise par exemple. Ce qui évite de couper le réseau tout en exigeant un ralentissement de la réactivité, sans pour autant restreindre la liberté d’expression. En effet, ce qui n’a pu être dit la veille pourra l’être le lendemain à condition de ne pas épuiser ses droits avec des réactions à des contenus sans importance. L’utilisateur apprend ainsi à faire ce que les gatekeepers que sont les médias, faisaient auparavant pour lui, hiérarchiser l’info, fixer des priorités. Et cela affecte aussi bien les « bonnes informations » que les « mauvaises » car c’est la viralité qui est la cible de ce ralentissement, par ses effets destructeurs des conditions du débat public mais aussi par les dégâts qu’elle occasionne dans les capacités attentionnelles individuelles. C’est bien dans le code des interfaces et au niveau des signaux attentionnels les plus élémentaires qu’il faut inscrire ces mécanismes de ralentissement essentiels. Vous proposez également de considérer certaines plateformes comme des médias. Quel serait l’intérêt ? Dans la mesure où il apparait désormais clairement depuis quelques années que les plateformes de réseaux sociaux appliquent une politique éditoriale en choisissant les comptes qu’elles veulent maintenir, supprimer ou pousser, et en interdisant de fait certains contenus ou en en poussant d’autres à travers leurs algorithmes (et X a été le plus loin sur ce plan), il faut accepter cet état de fait et non continuer à exiger une neutralité dépassée, trompeuse et inefficace contre les contenus délétères. C’est la section 230 du Decency Act US de 1996 qui octroyait aux fournisseurs d’accès internet un statut nouveau, celui d’hébergeurs, qui les sortait du droit commun des médias et leur évitait toute responsabilité éditoriale. Or, si leur mauvaise volonté actuelle en matière de modération n’entraine aucune sanction véritable pour l’instant, c’est qu’elles peuvent se réfugier derrière cette absence de responsabilité instituée légalement dans les pays européens aussi. Pour espérer que ces plateformes assument leur responsabilité, il n’existe guère d’autres solutions que de les ramener dans le cadre légal de tous les autres médias. Il faut noter que ces plateformes vivent largement des contenus des autres médias, qui sont, eux, contrôlés et peuvent prétendre à la crédibilité. Il ne serait que justice de leur appliquer les mêmes règles et de les contraindre ainsi à exercer une modération a priori comme les médias traditionnels le font, jusque sur leur courrier des lecteurs. Certes, cela pourrait gêner ceux qui utilisent ces plateformes pour déverser leurs pulsions souvent illégales et ainsi intoxiquer tout le débat public et certes aussi, cela permettait à ces réseaux sociaux d’afficher une orientation éditoriale restrictive. Mais c’est déjà le cas et surtout cela ne menacerait en rien la liberté d’expression dès lors qu’il existerait comme pour les médias classiques un pluralisme des offres de réseaux sociaux, ce que les pouvoirs publics seraient avisés de soutenir dès maintenant car il en existe de nombreux. Toutes les tentatives de « patch » toujours très compliquées pour obtenir une véritable modération ont échoué, seule une véritable responsabilité légale d’éditeur s’imposant aux dirigeants eux-mêmes permettrait de récupérer un espace public vivable et coopératif qui nous manque tant.

13.12.2025 à 11:00

Sans majorité parlementaire, il faut une coalition des partis

Denis Baranger et Olivier Beaud, tous les deux professeurs de droit public, analysent dans La dissolution de la V e République , qu’ils viennent de publier aux éditions Les petits matins, les conséquences sur nos institutions de la disparition d’une majorité parlementaire, liée à la fragmentation politique que l'on connait, et du changement de régime que cela suppose. Si cette fragmentation perdure comme on peut le penser, pour gouverner, il n'y a pas d'autre solution que de chercher à former une coalition de gouvernement. Encore faut-il que les partis politiques y soient prêts, ce qui est loin d'aller de soi comme on le voit. Nonfiction : Tout le monde, ou presque, a compris que ce régime, sans majorité parlementaire, ne pouvait plus s’accommoder de l’hyperprésidentialisme selon lequel Emmanuel Macron comprenait sa fonction. Pour autant, comme vous le rappelez, même s’il l’a poussée à un niveau jamais atteint, la pratique du « président–gouvernant » a plutôt été la règle, hors période de cohabitation, sous la V e République. Peut-être pourriez expliquer, pour commencer, comment notre régime politique pouvait jusqu’ici s’en accommoder ? Denis Baranger, Olivier Beaud : La raison est très simple et elle tient à l’élection présidentielle au suffrage universel direct, instaurée par la révision constitutionnelle de 1962 et voulue par le Général de Gaulle contre l’avis des parlementaires. Cette réforme s’est avérée d’une immense portée. Le chef de l’Etat supposé impartial et au-dessus des partis a dû se lancer dans la bataille électorale et lors de la première élection, en 1965, Mitterrand a contraint de Gaulle à batailler lors d’un second tour. Du point de vue des institutions, il en a résulté que le président élu par le peuple tout entier (en réalité par une majorité, fût-elle courte) pouvait invoquer une légitimité électorale. De Gaulle a même théorisé la supériorité de cette légitimité par rapport à celle des députés, élus dans les circonscriptions. Fort de cette légitimité électorale, les successeurs du général ont ajouté un programme pour convaincre les électeurs de voter pour eux et une fois élus, ils ont avancé ce programme comme fil directeur de « leur » politique, prétendument voulue par le peuple. Le résultat ne s’est pas fait attendre : le Premier Ministre, chef du gouvernement, a été considéré comme le « subordonné », du chef de l’Etat, avant même de devenir dans une version plus péjorative, son « premier collaborateur ». Tout le monde avait intérêt à ce système, y compris le Premier ministre qui entrait ici dans une relation de type féodal ou clientélaire avec le chef de l’Etat qui pouvait compter sur son appui presque inconditionnel (les deux seules exceptions dans l’histoire étant la rébellion de Chirac vis-à-vis de Giscard d’Estaing en 1976 et la rébellion d’Attal après la dissolution décidée par Macron). Quant à l’opposition, elle s’en accommodait car elle espérait bien gagner un jour la présidentielle. Ce fut le calcul politique de Mitterrand – calcul gagnant – alors que Mendes-France par une sorte de rigueur excessive, n’a pas voulu jouer ce rôle de présidentiable. Les élections législatives de 2022 ont privé le Président de sa majorité à l’Assemblée et provoqué une situation inédite. L’idée affichée d’aller chercher une majorité « texte par texte » a vite cédé la place à un usage immodéré du 49-3, traduisant le refus du Président et de ses soutiens d’acter qu’ils n’étaient plus seuls décideurs. Le parlementarisme « rationalisé », qui était censé permettre un fonctionnement normal des institutions (en disciplinant une majorité), a largement « déraillé » comme on a pu s’en apercevoir lors de l’adoption de quelques lois emblématiques (vous prenez l’exemple de la réforme des retraites ou encore de la loi asile-immigration). Comment caractériseriez-vous cette période ? Si la dissolution n’y avait pas mis un terme, comment les choses auraient-elles pu se passer selon vous ? Il est difficile de faire de l’histoire-fiction, mais remarquons que la dissolution a rompu un équilibre, certes précaire, mais encore soutenable. Madame Borne et son gouvernement réussissaient tant bien que mal à faire adopter un certain nombre de textes : une soixantaine au total. Des groupes comme LR, LIOT, voire les socialistes ou les écologistes, n’étaient pas fermés à toute forme de compromis. Mais on voit aussi que plusieurs germes de déstabilisation étaient déjà à l’œuvre. Le premier est la rigidité du Président, qui ne semble pas avoir été intéressé par une attitude de conciliation, malgré ses propos en ce sens après sa réélection, et qui a été déterminé à faire passer coûte que coûte « sa » réforme des retraites. Le Parlement était conçu par lui et son entourage comme au mieux une chambre d’enregistrement, au pire comme une gêne. Un autre facteur a été la difficulté structurelle des partis à trouver un terrain d’entente. Nous racontons dans le livre la crise engendrée par le refus gouvernemental d’un texte de compromis sur le projet « asile – immigration ». On pourra se demander longtemps pourquoi l’arrangement trouvé au Sénat avec les LR a été « détricoté » par le gouvernement, et en particulier par Gérald Darmanin, lorsque le texte est revenu à l’Assemblée nationale en décembre 2023. Pourquoi ne pas être alors parvenu à une entente, alors que ce qui est sorti de la dissolution, ce sont précisément des gouvernements à dominante Renaissance et LR, dont le premier dirigé par un premier ministre de ce parti, Michel Barnier, malgré sa faiblesse électorale ? La réponse tient aussi à la crise interne de LR, parti en quête tant d’une cohérence doctrinale que d’une stratégie de survie entre les deux pôles qui menacent de l’absorber (RN d’un côté, macronistes de l’autre). Mais cette histoire contrefactuelle montre le coût faramineux de la dissolution en termes politiques, et surtout son résultat quasi nul : tout ça pour ça, serait-on tenté de dire… La dissolution de 2024 a ouvert une phase de gouvernements à la fois minoritaires, hétérogènes et fragiles, comme on allait vite s’en apercevoir. Le positionnement d’Emmanuel Macron est devenu encore plus problématique, comme de nombreux commentateurs ne se sont pas fait priés pour le noter. Mais ces gouvernements eux-mêmes et au premier chef les premiers ministres, expliquez-vous, ont fait comme s’ils pouvaient se passer de trouver un accord avec les partis pour gouverner (mais pouvaient-ils faire autrement ?). Votre livre s’arrête aux gouvernements Barnier et Bayrou, quelle appréciation portez-vous sur les débuts du gouvernement de Lecornu ? Il y a deux questions dans votre interrogation, mais auxquelles on peut répondre par une seule affirmation : la preuve que les deux premiers ministres (Barnier et Bayrou) pouvaient procéder d’une façon différente tient au fait, justement, que Lecornu s’y est pris différemment. Il a vraiment tenté de construire une majorité parlementaire, et c’est ce qui explique l’alliance qu’il a passée avec le Parti socialiste, parti-pivot malgré son nombre de députés somme toute modeste. Il a donc choisi de faire de véritables compromis, comme l’illustre la mesure ô combien emblématique de la suspension de la réforme de la retraite (relèvement de l’âge légal à 64 ans). Le problème avec le gouvernement Lecornu tient à sa nomination, le Premier Ministre étant ici souvent vu comme le dernier fidèle du président de la République et à qui l’on pouvait imputer la volonté de vouloir à tout prix défendre les acquis de la politique macronienne depuis 2017. Le fait qu’il a concédé au PS cette mesure, que certains perçoivent comme une reculade majeure, peut être interprété comme le signe que l’actuel Premier Ministre peut, de temps en temps, s’écarter de la ligne politique de son président. C’est d’ailleurs la condition pour que son gouvernement survive. La logique voudrait, expliquez-vous, dans une telle situation, que l’on tire les leçons de cette absence de majorité pour s’employer à constituer une majorité et un gouvernement de coalition. Le problème, comme vous le notez aussi, est que le niveau de polarisation politique à laquelle on semble parvenu rend la chose très difficile. Pourriez-vous expliquer ce qu’impliquerait, selon vous, la formation d’une coalition de gouvernement, que l’on trouve chez nombre de nos voisins, et quelle forme elle pourrait prendre ? La formation d’un gouvernement de coalition n’est pas une chose inconnue dans l’histoire constitutionnelle française. Il faut rappeler aux lecteurs que c’est essentiellement cette forme que prenaient les gouvernements sous la III e et la IV e République. Ce qui expliquait aussi la fameuse instabilité ministérielle qui procédait de la rupture de coalition à l’occasion de tel ou tel évènement ou de telle ou de telle loi. La IV e république est de ce point de vue un cas d’école avec  une succession de coalitions, le tripartisme (SFIO, MRP et PCF) de 1947 à 1951 étant remplacé, après l’éviction des communistes, par la troisième force. On a donc ici un précédent précieux à examiner qui est la constitution d’un arc politique large constitué pour contrer les deux partis qui se considéraient à partir de 1951 comme en dehors du système de la IV e : le parti communiste (PCF) et le parti gaulliste (RPF). On voit que la formation d’un gouvernement de coalition suppose une volonté de s’entendre sur un principe commun : s’allier contre des adversaires qui ne jouent pas le jeu républicain. Or, c’est le cas aujourd’hui avec le Rassemblement national et la France insoumise. Mais du principe à la réalité, il y a parfois un gouffre. Il semble inenvisageable d’avoir en France, du moins pour l’instant, l’équivalent de ce qui existe en Allemagne, à savoir un vrai contrat de coalition (en allemand Koalitionsvertrag) qui peut être très long et incroyablement détaillé et qui fait penser un peu à ce que nous avons connu avec le programme commun de la gauche. La forme que pourrait prendre un tel gouvernement de coalition serait donc nécessairement moins rigide, et fondé sur quelques points communs. Il va sans dire que la faisabilité d’un tel gouvernement s’avère faible, surtout si le parti Les Républicains (LR) continue à dériver vers l’extrême-droite et à flirter avec le RN, faisant éclater le cordon sanitaire. Si l’on pouvait se convaincre que la polarisation que l’on connaît a de fortes chances de reproduire dans le futur des assemblées sans majorité, il y aurait sans doute là une impulsion supplémentaire à s’engager dans cette voie pour les partis et leurs responsables. De fait, si l’on se dit que l’alternative probable serait la suivante : soit le RN remporte la présidentielle et devient majoritaire à l’Assemblée, soit au contraire un Président est élu pour y faire obstacle, mais celui-ci a alors très peu de chance de disposer d’une majorité à l’Assemblée. Dans ce dernier cas, apprendre à former des coalitions deviendrait en effet un enjeu d’autant plus décisif. Qu’en pensez-vous ? Vous avez tout à fait raison. Si le RN est battu aux prochaines élections présidentielles, ce qui est loin d’être certain, alors la donne change considérablement car on ne pourra plus faire comme maintenant, c’est-à-dire espérer de l’élection présidentielle la solution à tous nos problèmes. Il faudra dans cette hypothèse d’un président de la République « non-RN », songer plus que sérieusement à un gouvernement de coalition. Cela ne sera cependant possible que si les extrêmes reculent aux législatives résultant d’une dissolution. Cela fait beaucoup de si, comme vous voyez.
4 / 11

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞