LePartisan - 141 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

12.03.2026 à 16:57

Le pouvoir des communes face à l’État : enjeu caché des municipales

Luc Rouban, Directeur de recherches (CNRS) au Cevipof, Sciences Po
Le pouvoir municipal est travaillé par deux dynamiques contradictoires. Un pouvoir de proximité, apprécié des citoyens. Et un pouvoir contraint par l’État, par les dotations financières et les normes d’action publique.
Texte intégral (2332 mots)

À un an de l’élection présidentielle, les municipales de 2026 sont un scrutin charnière, révélateur de l’état réel du paysage politique français. Cependant, derrière l’affrontement partisan se joue un enjeu plus profond : savoir si la commune reste un lieu essentiel de notre démocratie, ou si elle s’est muée en simple rouage administratif.


Les élections municipales de 2026 vont revêtir une importance particulière. Tout d’abord, parce qu’elles vont constituer un test pour mesurer les rapports de force politiques avant l’élection présidentielle de 2027 qu’elles précèdent immédiatement, une situation qui ne s’était pas reproduite depuis 2001. Ensuite, parce qu’elles interviennent dans un contexte de trouble, voire d’usure démocratique. La séquence ouverte par les élections législatives de 2024, faite d’instabilité et d’impuissance gouvernementale, est venue parachever un processus de décomposition et de recomposition politique amorcé depuis 2017 et la première victoire d’Emmanuel Macron.

Mais derrière les enjeux partisans se profile un enjeu caché, celui de la conception même du rapport au politique. Les élections municipales de 2026 vont raviver un très ancien débat sur ce que sont les communes et le pouvoir local. S’agit-il d’une forme d’organisation urbaine destinée à rationaliser l’action publique ou bien de l’expression plus ou moins spontanée de libertés venant se concrétiser dans une communauté ?

La nationalisation des élections municipales

Bien qu’elles soient locales par définition, les élections municipales vont revêtir une valeur nationale. Dans l’état actuel de confusion politique, chaque parti entend montrer qu’il dispose d’un ancrage territorial et se trouve ipso facto en mesure de répondre aux attentes des Français sur le terrain. Le Rassemblement national (RN) est devenu le parti dominant, mais n’a pas pu réunir un vivier d’élus locaux suffisant pour démontrer son omniprésence et a préparé environ 700 listes. Son espoir est de conquérir quelques grandes villes, comme Calais ou Toulon. La question se posera de savoir si la suprématie des Républicains (LR) dans les villes de plus de 9 000 habitants, actée en 2020, pourra se prolonger sans entériner « l’union des droites » avec le RN.

À gauche, la fin du Nouveau Front populaire met en concurrence La France insoumise (LFI) et le Parti socialiste (PS) pour le leadership dans la perspective de la présidentielle de 2027, avec l’engagement de députés LFI à l’assaut de Paris ou de Marseille. Le PS va mesurer la portée de sa stratégie de recentrage et d’alliance avec Les Écologistes pour espérer récupérer des villes passées à droite en 2014, comme Reims ou Toulouse. Pour le bloc central, l’enjeu est celui de savoir ce que pèse encore le macronisme, alors que Renaissance a préféré soutenir des candidats Horizons (à Paris), divers droite (à Lyon) ou d’anciens LR (à Marseille).

Projeter sur les élections municipales les enjeux de l’élection présidentielle permet aux partis politiques de renforcer leur légitimité alors qu’ils sont désormais faibles et incapables de canaliser la violence sociale. Cette instrumentalisation occulte cependant la nature du débat démocratique que soulèvent ces élections.

Une histoire du long terme

Pour comprendre ce dont se revêt le pouvoir municipal dans la France de 2026, il faut bien cerner l’importance d’un débat historique qui entoure l’apparition du fait communal au détour des IXe et Xe siècles. Les communes, souvent issues des paroisses catholiques, se sont alors multipliées dans un cadre juridique nouveau, celui de chartes passées avec des autorités de tutelle – rois, seigneurs, autorités ecclésiastiques – qui leur concédaient des libertés de gestion mais, surtout, reconnaissaient l’existence de pouvoirs sociaux autonomes : les communes deviennent des personnes morales.

On doit surtout retenir le fait qu’elles deviennent l’expression d’une solidarité entre les habitants, qui se doivent « foi, assistance et conseil ». Ceux-ci participent à des assemblées générales convoquées « à corz cornant et à cloiche sonant », selon un modèle institutionnel qui se diffuse en Europe.

Deux facteurs sociopolitiques vont jouer un rôle décisif dans l’invention de la commune, que l’on retrouve très clairement dans la France du XXIe siècle : d’une part, un mouvement de différenciation et d’individuation, qui conduit à l’affirmation d’une identité locale collective ou communautaire et, d’autre part, un effondrement du pouvoir central, marqué par l’instabilité et l’inefficacité. Petit parallèle historique : Louis II dit le Bègue reste roi des Francs deux ans (877-879), Charles III le Gros trois (884-887), tout comme Louis III (879-882), et le dernier roi carolingien, Louis V, un an (986-987). Comme le souligne Émile Durkheim dans un texte de 1903 : « L’activité de la société est en raison inverse de l’activité de l’État. » L’émancipation de la société conduit à inventer de nouvelles structures politiques qui permettent de se protéger et d’affirmer ses libertés.

De l’institution communautaire à l’institution oligarchique

Cette conception de la commune va disparaître sous l’effet d’un mouvement de concentration oligarchique qui s’opère à partir du XIVe siècle, puis d’une nouvelle doctrine juridique venant à l’appui de la centralisation monarchique à partir du XVIᵉ siècle, qui fera progressivement de la commune un simple rouage de la puissance royale, dont les représentants, les maires, ne sont plus élus mais titulaires d’offices, dont l’achat devient une aubaine financière pour l’État. En 1555, un édit royal crée les généralités (ancêtres de nos préfectures) sous la conduite d’un intendant nommé par le roi qui va contrôler les finances communales et vérifier si les élus ne s’octroient pas trop d’indemnités.

Cette évolution oligarchique et de concentration du pouvoir municipal est le produit de deux facteurs opposés. Le premier, apparu très tôt, est le besoin de disposer de maires ayant fait des études juridiques et disposant d’un bagage universitaire. Très vite, dès le XIIIe siècle, les bourgeois sont à la recherche de bons maires pour leur commune, ce qui implique déjà un certain savoir-faire professionnalisé. Cette nouvelle élite va s’associer à la bourgeoisie marchande et aux Parlements pour contrer le pouvoir royal mais, de ce fait, s’insérer dans de plus vastes réseaux sociaux et familiaux. Le second, inverse, mais jouant paradoxalement dans le sens d’une dévitalisation de l’idée communale et communautaire originelle, tient à la construction de l’État moderne, qui impose de disposer de rouages locaux et appuie les élites locales dans leur lutte contre la noblesse et les seigneurs.

Les conseils et les « jurés » ou les « échevins » vont rapidement s’imposer, tandis que les assemblées de citoyens disparaissent peu à peu. Bien que la Révolution et les régimes républicains qui lui succèdent fassent de l’élection démocratique le ressort du pouvoir municipal, ce dernier se réduit désormais à un contre-pouvoir plus ou moins fragile par l’insertion des maires dans la notabilité, qui conduit aux fonctions politiques nationales.

Le pouvoir municipal à la croisée des chemins

En 2026, le pouvoir municipal se retrouve en tension entre ces deux acceptions de la commune. La première est celle du pouvoir direct des citoyens, tel qu’il s’exprime positivement dans l’investissement dans les assemblées participatives locales et, négativement, dans les agressions dont les maires font l’objet en nombre croissant. L’idée d’un pouvoir de proximité, efficace et rapide, est partagée par une majorité de citoyens. Le Baromètre de la confiance politique du Cevipof montre ainsi qu’a émergé une autre idée du pouvoir politique, moins partisan et plus soucieux du détail des vies ordinaires.

Alors que le pouvoir central est fortement critiqué, le pouvoir local est apprécié : si 22 % des enquêtés ont encore confiance dans l’institution présidentielle, 60 % font confiance à leur maire, 58 % à leur conseil municipal. Bien plus, la demande de décentralisation est forte. Les enquêtés estiment à 79 % qu’il faudrait donner plus de pouvoir aux collectivités locales face l’État. Cette moyenne ne varie ni en fonction du niveau de diplôme, ni de la catégorie socioprofessionnelle, ni même du vote au premier tour de l’élection présidentielle de 2022 puisque cette proportion est de 82 % chez les électeurs de Jean-Luc Mélenchon, de 81 % chez ceux d’Emmanuel Macron et de 83 % chez ceux de Marine Le Pen. On est donc en présence d’une demande générale.

La commune reste le lieu de l’efficacité immédiate et de son évaluation rapide par les administrés. La gestion municipale reste d’ailleurs assez étrangère aux engagements partisans. Ce n’est pas par hasard si le facteur qui joue le plus sur le niveau de confiance dans les maires, bien avant la position politique ou les variables sociologiques lourdes, est constitué par le niveau de confiance dans les entreprises privées. Cette observation introduit cependant la seconde dimension du pouvoir municipal.

Celui-ci s’est concentré entre les mains des maires dans un cadre institutionnel où la « prime majoritaire » du scrutin laisse peu de place aux oppositions puisqu’une victoire modeste dans les urnes peut conduire à disposer d’une majorité écrasante de conseillers municipaux. Jusqu’à 50 000 habitants, en moyenne, les listes gagnantes ont obtenu en 2020 autour de 80 % des conseillers, 73 % entre 50 000 et 100 000 habitants et 69 % dans les grandes villes au-delà de 100 000 habitants avec une diversification de la compétition électorale.

Mais on observe aussi un renforcement récent du caractère oligarchique du pouvoir municipal, notamment par le développement des politiques de communication qui personnalisent fortement l’action municipale et valorisent la seule image du maire. Le profil socioprofessionnel des maires est devenu par ailleurs de plus en plus étroit, privilégiant les catégories supérieures ou moyennes diplômées. Entre 2014 et 2020, la proportion de maires issus des catégories supérieures est passée en moyenne dans l’Hexagone de 25 % à 43 %, et dans les outre-mer de 42 % à 49 %. Le mouvement est général, même si la taille des communes vient le moduler, puisque cette proportion passe de 34 % dans les communes de moins de 500 habitants à 72 % dans celles de 30 000 habitants et plus.

Origine sociale des maires de France en 2019 et 2025

Même si les maires bénéficient d’un crédit perdu par le personnel politique national, ils constituent néanmoins une oligarchie souvent impuissante. Les communes dépendent étroitement des dotations financières de l’État et doivent s’insérer dans un carcan de normes nationales tant en matière de santé, d’environnement que de développement urbain ou économique. L’autonomie locale est encore réduite par la nécessité de s’insérer dans des intercommunalités qui décident de plus en plus de la vie quotidienne des habitants, en matière de transports ou de voirie. La décentralisation a été interprétée comme une déconcentration de l’État, laissant les tâches routinières et ingrates au local.

La question municipale résume donc, en 2026, les deux orientations contradictoires qui mettent la démocratie à l’épreuve de l’arbitrage entre deux efficacités politiques. La première reste fidèle à une anthropologie politique faisant du local un lieu de solidarité, de participation et d’identité, ce qui explique pourquoi la France a toujours 35 000 communes. La seconde fait de la gestion municipale un facteur d’adaptation territoriale d’une action publique unitaire et verticale supposée intégrer la société française.


Luc Rouban, est l’auteur de la Société contre la politique aux Presses de Sciences Po. Cet article est publié en partenariat avec Conférence Sciences Po.

The Conversation

Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.03.2026 à 16:55

Peut-on faire confiance aux sondages politiques ? Un statisticien nous donne les clés pour les décrypter

Léo Gerville-Réache, Modélisation statistique, Université de Bordeaux
En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques.
Texte intégral (2158 mots)

En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques, déterminer comment elles sont construites et déterminer les biais et les incertitudes.


Le dimanche 7 juillet 2024, le verdict des urnes a balayé des semaines de « certitudes statistiques ». Alors que les instituts plaçaient le Rassemblement national (RN) et ses alliés en tête avec une fourchette de 170 à 230 sièges, les résultats définitifs ont figé le compteur à 143 sièges, reléguant le parti à la troisième place.

Comment un appareil statistique aussi sophistiqué a-t-il pu manquer la physionomie de l’Assemblée à ce point ? La réponse ne réside pas seulement dans de « mauvais chiffres », mais dans un décalage structurel entre ce que la loi encadre, ce que la statistique permet, et ce que le public entend.

Le « sondage » contrôlé contre la « projection » libre

Depuis la loi no 2016-508 du 25 avril 2016, la Commission des sondages est chargée de veiller au respect de la réglementation. Elle s’est dotée d’un site donnant accès aux notices explicatives de l’ensemble des sondages électoraux publiés, et publie régulièrement des communiqués. Le 18 juin 2024, à l’occasion des élections législatives, la commission alerte sur une distinction juridique fondamentale qui échappe souvent au grand public :

  • Le sondage (contrôlé) : une enquête statistique sur un échantillon représentatif de l’ensemble du territoire hexagonal. La commission exerce ici un contrôle systématique sur la méthode de sélection, les quotas et les redressements.

  • La projection en sièges (non contrôlée) : c’est un exercice de « traduction » du vote national en sièges parlementaires. La commission est formelle : elle n’exerce aucun contrôle sur ces chiffres et recommande la prudence.

Pourquoi ? Parce que la projection est tributaire de 577 réalités locales : offre politique spécifique, notoriété des candidats et, surtout, les configurations de seconds tours (triangulaires, désistements) qui dépendent du taux de participation. En somme, la loi encadre la « matière première » (l’intention de vote), mais laisse le « produit fini » (la projection en sièges) dans une zone grise méthodologique.

Le mirage des marges d’erreur

L’un des plus grands malentendus réside dans l’affichage des marges d’erreur, perçues à tort comme une mesure globale de la fiabilité. Depuis la loi de 2016, chaque première publication d’un sondage doit obligatoirement indiquer sa marge d’incertitude. Pourtant, la quasi-totalité des instituts français utilise la méthode des quotas, une technique sur laquelle la notion mathématique de marge d’erreur n’a techniquement « pas de sens », comme les instituts l’admettaient eux-mêmes devant le Sénat.

En « théorie des sondages », on distingue explicitement :

  • les sondages « aléatoires », où chaque individu de la population cible du sondage a une probabilité connue et non nulle de faire partie de l’échantillon de répondants, et on se sert de ces probabilités pour établir des marges d’erreur. Ici la « représentativité » est, par construction, indiscutable.

  • les sondages par « quotas » où il s’agit de contrôler que la structure de l’échantillon de répondants au sondage est similaire à celle de la population cible (essentiellement : sexe, âge, catégorie socioprofessionnelle, région de résidence et catégorie d’agglomération). Ici, la « représentativité » est seulement partiellement contrôlée, et la probabilité de chaque individu, d’appartenir à l’échantillon, est inconnue.

Pour comprendre l’origine de cette ambiguïté sur les marges d’erreur, il faut remonter au rapport no 54 du Sénat de 2010 qui a entériné un glissement sémantique majeur en estimant qu’il était « tout à fait possible » de considérer que les quotas génèrent des incertitudes « similaires » à la méthode aléatoire.

Or, Pascal Ardilly (inspecteur général de l’Insee et auteur de l’incontournable livre les Techniques de sondage), auditionné par le Sénat, précisait explicitement que faire l’hypothèse de marges d’erreur similaires pour les résultats d’un sondage, qu’il soit issu de la méthode des quotas ou de la méthode aléatoire, relevait d’une hypothèse très forte et non vérifiée d’absence de biais pour la méthode des quotas.

Un glissement analogue apparaît avec l’usage tronqué de la notion d’« échantillonnage contrôlé » attribuée à Jerzy Neyman (considéré comme l’un des fondateurs de la statistique moderne).

En omettant le mot « aléatoire » dans l’expression originelle « échantillonnage aléatoire contrôlé », on fait comme si le contrôle des quotas pouvait se substituer au hasard. Pourtant, scientifiquement, le mot « aléatoire » change tout : le « contrôlé » n’est pas une ambiance mais un hasard encadré par un plan de sélection rigoureux qui permet de construire mathématiquement des marges d’erreur.

C’est ce qui rend la notion de « représentativité » si exigeante : elle ne peut être revendiquée que si les marges d’erreur découlent scientifiquement du plan de sélection, ce que la méthode des quotas ne peut pas invoquer, en toute généralité. En reprenant une formulation de compromis – « les marges d’erreur… le cas échéant par référence à la méthode aléatoire » – la loi a figé des mots statistiques sans en figer les conditions de validité, laissant croire au public que la marge d’erreur affichée (en général, seulement lors de la première publication) est l’assurance tous risques d’un chiffre qui se veut destin.

Quand la convergence fabrique l’erreur collective

En science, il est souvent rassurant de constater que diverses études donnent des résultats « compatibles ». Malheureusement, il peut s’agir d’une hallucination collective !

En 2024, les principaux instituts de sondage dont les travaux étaient relayés dans les médias, donnaient, quelques jours avant le second tour, des projections très éloignées des résultats définitifs.

Ce phénomène est ce que j’appelle une « communauté de biais ». Lorsque plusieurs instituts utilisent des méthodes similaires et des redressements basés sur les mêmes hypothèses (comme le report de voix entre blocs), une erreur commune peut se produire. La stabilité des chiffres n’est alors pas un gage de fiabilité, mais le symptôme d’une confiance collective dans une erreur collective.

La présidentielle : un cadre « pur » qui n’élimine pas les biais

Dans le cadre de l’élection présidentielle, le dispositif semble pourtant idéal : on sort des incertitudes liées aux 577 scrutins locaux pour revenir au « sondage pur », tel que défini et strictement contrôlé par la commission. Cependant, il est impératif de comprendre que le contrôle réglementaire assure une transparence démocratique, mais ne garantit en rien une « vérité » statistique. Le malentendu principal réside dans la confusion entre la marge d’erreur théorique et la fiabilité globale.

Lors de l’élection présidentielle de 2012, par exemple, pour une intention de vote de 25 %, les marges d’erreur « théoriques » affichées étaient de l’ordre de 1,8 à 2,7 points (selon le nombre de répondants). Après analyse statistique des écarts des résultats de tous les candidats entre le scrutin et les dernières estimations, elles se situaient en réalité entre 4 et 6 points. Pour exemple, un candidat crédité de 25 % d’intention de vote était essentiellement prévu entre 23 % et 27 % alors que la précision sincère du sondage se situait entre 21 % et 29 %.

Ce décalage s’explique par la nature même de l’erreur totale, qui n’est pas qu’une simple variance (un flou lié à la taille de l’échantillon et sa variabilité), mais peut aussi être un biais (un décalage structurel). Ce biais est alimenté par la vie réelle des sondages : non-réponses, indécisions, modes de collecte ou ajustements méthodologiques plus ou moins assumés.

Lorsque tous les acteurs utilisent des méthodes de redressement et des panels « similaires » (électeurs recrutés essentiellement sur Internet et qui répondent régulièrement aux sondages qui leur sont soumis), ils peuvent produire une histoire cohérente… mais erronée dans la même direction.

Ce constat impose, il me semble, une véritable « hygiène du commentaire » : il faut cesser de considérer les « fourchettes » affichées (lorsqu’elles le sont) comme le curseur permettant de décider si une campagne « stagne », « bouge » ou « bascule ».

2027 : Vers une maturité de l’information électorale ?

À l’approche du double scrutin de 2027 – l’élection présidentielle suivie d’élections législatives – l’enjeu n’est pas seulement de savoir qui « gagnera », mais de définir comment nous acceptons d’être informés (voire influencés). La séquence de 2024 a servi de rappel brutal : un appareil « statistique », aussi sophistiqué soit-il, peut totalement manquer la physionomie d’une assemblée si l’on confond l’intention de vote nationale avec la projection locale en sièges.

Pour l’élection présidentielle de 2027, le défi sera de ne pas se laisser enfermer dans le confort d’un chiffre unique. Le cadre sera « pur » et contrôlé par la Commission des sondages, mais l’expérience de 2012 (et en réalité celle de bien d’autres) nous rappelle qu’une marge d’erreur « théorique » de deux points peut masquer une imprécision réelle de plus de cinq points une fois les biais potentiels intégrés. Il est temps que les médias et le public adoptent un « pacte de sobriété » : privilégier les fourchettes larges et admettre qu’à trois points (voire cinq points) d’écart, rien n’est clair.

Concernant les législatives qui suivront, la vigilance devra être redoublée sur les projections en sièges. Comme l’a souligné la Commission des sondages, ces exercices ne bénéficient d’aucun encadrement méthodologique strict et dépendent de paramètres locaux (offres politiques, désistements) qu’un sondage national ne peut saisir. Continuer à présenter ces projections comme des résultats scientifiques et fiables, c’est entretenir une « confiance collective dans une erreur collective ».

En définitive, mon propos appelle une alliance entre culture statistique et culture civique. La loi de 2016 a ouvert la « boîte noire » en imposant la transparence des notices. Il appartient désormais aux acteurs du débat public de transformer cette transparence en une véritable « hygiène du commentaire ».

Un chiffre n’est pas un destin, c’est une mesure ; et en démocratie, le destin n’appartient qu’au vote, une fois les hypothèses, les méthodes, les estimations et les projections remises à leur juste place.

Et pour les élections municipales ? Dans les grandes villes (Paris, Lyon, Marseille…), les instituts s’appuient le plus souvent sur leurs panels, puis filtrent les répondants pour ne retenir que les personnes inscrites sur les listes électorales de la commune (et, le cas échéant, de l’arrondissement/secteur). La méthode des quotas et les redressements restent les principaux outils statistiques mobilisés pour estimer les intentions de vote. Restons vigilants !

The Conversation

Léo Gerville-Réache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.03.2026 à 16:55

Peut-on encore éviter la disparition du saumon sauvage en France ?

Étienne Prévost, Directeur de recherche, Inrae
Amaia Lamarins, Chercheuse en post-doctorat, University of Helsinki
Mathieu Buoro, Chercheur, Inrae; Université de Pau et des pays de l’Adour (UPPA)
Malgré l’interdiction de sa pêche, le saumon sauvage décline en France. Il est urgent de rétablir la continuité écologique le long des cours d’eau.
Texte intégral (2937 mots)

Alors que la pêche à la truite va rouvrir le 14 mars 2026, celle du saumon atlantique sauvage restera, cette année encore, interdite. Pas de miracle à attendre toutefois de cette mesure : le déclin alarmant que connaît cette espèce emblématique semble d’abord lié à la dégradation de ses conditions de vie. Peut-on encore préserver ce poisson grand migrateur dans les rivières françaises ? Dans un souci d’efficacité à court terme, la priorité est de rétablir la continuité écologique des milieux, c’est-à-dire de réduire le nombre d’obstacles (barrages en particulier) qui se dressent sur sa route.


La pêche du saumon atlantique sauvage (Salmo salar) a été interdite partout en France en 2025. Cette mesure sans précédent a été reconduite en 2026. Cette décision est la conséquence de très faibles retours de saumons adultes dans les rivières françaises.

Comment en est-on arrivé là ? Poisson grand migrateur vivant alternativement en rivière et en mer, le saumon atlantique est une espèce emblématique qui a fortement régressé au fil des siècles, particulièrement en France. En cause, le développement des activités humaines sur les cours d’eau et, en premier lieu, la construction de barrages, qui font obstacle à ses migrations, depuis et vers ses zones de reproduction.

Aujourd’hui, il est aussi menacé par le changement climatique. La France est en effet située sur la marge sud de l’aire de répartition de cette espèce d’eau froide. Le saumon pourrait-il bientôt déserter les cours d’eau français ? Peut-on encore l’en empêcher ? État des lieux.

Une détérioration brutale ces dernières années

À l’état sauvage, le saumon ne subsiste plus naturellement en France que dans certains cours d’eau du fond du golfe de Gascogne – principalement le bassin de l’Adour – ainsi que dans des fleuves côtiers de l’extrémité ouest de la péninsule bretonne et de la côte normande.

Il a disparu de tous les grands fleuves français, à l’exception de l’Allier, affluent amont de la Loire, qui héberge encore une population, désormais en danger d’extinction. La conservation des populations est la priorité reconnue au plan international et national.

Après une forte diminution observée depuis au moins les années 1970, les effectifs d’adultes remontant les rivières s’étaient plutôt stabilisés en France à partir des années 1990. Les toutes dernières années, en particulier depuis 2024, ont toutefois été marquées par un nouveau fléchissement, vraisemblablement sous l’effet d’une dégradation soudaine des taux de survie de l’espèce dans l’océan Atlantique Nord. Celle-ci semble avoir affecté plus particulièrement les populations de saumon les plus au sud de la façade ouest-européenne.


À lire aussi : En Europe, plus d’un million de barrages menacent la survie des poissons


Au-delà de l’interdiction de pêche, quelles solutions pour enrayer le déclin ?

S’agit-il d’une turbulence passagère, ou bien d’une transition vers des conditions adverses plus pérennes du fait du changement climatique ? Cette question reste ouverte.

Dans l’urgence, la fermeture de la pêche décidée en 2025 en France permet d’alléger le fardeau que l’humain impose au saumon, mais il ne faut pas trop en attendre. En effet, son exploitation légale est actuellement à des niveaux historiquement bas. Les captures accidentelles, lorsqu’elles ne sont pas illégales, devraient bien sûr être minimisées, mais il est très improbable qu’elles puissent expliquer, à elles seules, les baisses drastiques récemment observées sur l’ensemble des cours d’eau français.

Tacon (jeune saumon). Katie Marony/USFWS

Il pourrait être tentant de supplémenter artificiellement les populations par des déversements de juvéniles produits en élevage. Mais il est aujourd’hui établi que ces pratiques, largement mises en œuvre depuis plus d’un siècle, sont le plus souvent inefficaces, voire nocives, et en aucun cas durables.

Pour ce qui est du milieu marin, on ne dispose pas vraiment de levier d’action, faute de connaissances scientifiques suffisamment précises sur la vie en mer du saumon et en raison de l’ampleur du domaine océanique dans lequel l’espèce évolue.

L’option la plus pertinente reste la restauration de conditions environnementales plus favorables au saumon en rivière, où se déroule la reproduction, étape clé du renouvellement des populations. La priorité doit être donnée à la restauration d’une liberté de migration vers l’amont et vers l’aval, aujourd’hui restreinte par nombres d’obstacles le long des cours d’eau.


À lire aussi : En Europe, plus d’un million de barrages menacent la survie des poissons


La meilleure solution : détruire les barrages

Depuis quelques décennies, une politique proactive d’aménagement des obstacles pour faciliter leur franchissement par les poissons a été mise en place, en France et en Europe, sur à peu près tous les bassins encore colonisés par le saumon. Elle a montré son efficacité en contribuant à stabiliser la situation de l’espèce jusqu’à très récemment.

Évolution du taux de retour du saumon sauvage en France jusqu’en 2020. Clément Lebot, Étienne Rivot, Laurent Beaulaton, Mathieu Buoro, Marie Nevoux, et al.., Fourni par l'auteur

Cette politique est aussi une voie d’adaptation à privilégier et à amplifier sans attendre face aux nouvelles menaces à venir, en particulier le changement climatique. Lorsqu’elle est ciblée sur des bassins où le saumon est encore présent à l’état sauvage, les effets positifs peuvent être rapides, significatifs et durables.

Parce qu’elle permet le maintien des usages, la construction de dispositifs de franchissement (type « passes à poissons ») est la « solution » la plus fréquemment mise en œuvre, bien que leur efficacité ne soit pas toujours garantie. Elle peut aussi être drastiquement réduite dans les cas où l’on rencontre plusieurs aménagements successifs le long d’un même cours d’eau, même lorsque chacun est individuellement performant. Le recours aux dispositifs de franchissement est également plus risqué, car leur efficacité pourrait être altérée par des changements à venir dans les régimes hydrauliques des rivières.

Le barrage hydroélectrique de la Roche-qui-boit (Ducey, Manche), sur la Sélune, a été détruit en 2022. Epncantonducey/Wikimanche, CC BY-SA

Pour restaurer la libre circulation des poissons dans les cours d’eau, la destruction des ouvrages, en particulier quand ils n’ont plus d’usage, est la solution de choix. Après d’autres plus anciens, les arasements récents de barrages sur la Sélune en Normandie et la Nivelle au Pays basque constituent des exemples de réussite à suivre et à multiplier.

À la clé, des déplacements plus rapides depuis et vers des zones de reproduction et d’élevage des jeunes plus vastes, plus diversifiées et situées plus en amont des cours d’eau. Les bénéfices sont multiples pour faire face à aux conditions environnementales nouvelles, réchauffement des eaux et régimes hydrauliques plus contrastés (étiages et crues extrêmes), qui pourraient découler du changement climatique.

  • Tout d’abord, cela permet d’étendre les milieux colonisables, et donc d’augmenter les effectifs des populations. De quoi favoriser aussi la diversité génétique et accroître les opportunités d’adaptation.

  • Ensuite, cela réduit la mortalité due aux obstacles et aux infrastructures associées – canaux de dérivation, turbines hydroélectriques, installations piscicoles… On peut ainsi compenser d’éventuelles baisses de la survie en mer.

  • Enfin, les zones à l’amont des cours d’eau, souvent plus fraîches, peuvent jouer un rôle de refuge thermique pour cette espèce d’eau froide.

Suppression du barrage Urrutienea sur la Nivelle (Pyrénées-Atlantique).

Le saumon sauvage, victime collatérale de la décarbonation ?

Alors que l’expertise scientifique est aujourd’hui trop souvent traitée comme une opinion parmi d’autres, nous avons conscience que l’amplification de la politique de restauration de la libre circulation, défendue ici, n’est pas et ne sera pas une évidence pour tous.

L’issue du combat pour tenter de préserver le saumon en France étant incertaine, la tentation première de ne rien faire est grande. D’autant plus que les travaux scientifiques spéculant sur le devenir des populations, toujours par essence discutables, peuvent être mal interprétés ou instrumentalisés par des acteurs qui ont intérêt à réduire les entraves aux usages de l’eau. Certains argueront ainsi que, pour le saumon, le combat face au changement climatique est perdu d’avance.

Paradoxalement, l’espèce pourrait aussi être la victime collatérale de la lutte contre le changement climatique. En effet, la production d’électricité décarbonée (d’origine hydraulique, mais aussi nucléaire) est aujourd’hui promue, alors qu’elle nuit directement (de par les obstacles, mais également les changements de températures) à la libre circulation des poissons en rivière.

Restaurer la libre circulation du saumon sur les quelques bassins où il est encore présent naturellement aurait un coût marginal faible à l’échelle nationale, mais sa mise en œuvre est complexe dans la mesure où elle implique d’intervenir sur chaque obstacle aux migrations. À cette échelle, le coût économique et sociétal peut devenir un élément bloquant pour certains acteurs et parties prenantes.

Enfin, les pêcheurs, bien que leur activité dépende très directement de la conservation des populations de saumon, se montrent souvent plus préoccupés par des questions à court terme de partage de la ressource. Les conflits entre pêche professionnelle et pêche de loisir mobilisent beaucoup d’efforts, y compris des services de l’État, qui pourraient être mieux utilisés pour faire face collectivement au défi de la restauration de la libre circulation.

Le saumon est une espèce emblématique, avec qui nous entretenons des rapports particuliers depuis plusieurs siècles. Il est aujourd’hui au cœur de conflits qui le dépassent : enjeux à court vs long terme, locaux vs globaux, transition énergétique vs préservation de la biodiversité… Son statut en France, d’ici la fin du siècle, sera révélateur des priorités et des compromis que nous aurons collectivement mis en œuvre.

The Conversation

Etienne Prevost a reçu des financements publics.

Amaia Lamarins et Mathieu Buoro ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

3 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞