LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

13.03.2026 à 15:28

Missiles Patriot, drones bon marché : pourquoi la défense aérienne doit changer d’échelle

Iain Boyd, Director of the Center for National Security Initiatives and Professor of Aerospace Engineering Sciences, University of Colorado Boulder

Face à des attaques aériennes mêlant missiles, drones bon marché et salves massives, les systèmes de défense traditionnels atteignent leurs limites.
Texte intégral (1780 mots)

Des milliers de drones et de roquettes peuvent aujourd’hui saturer les systèmes de défense les plus sophistiqués. Pour répondre à cette nouvelle réalité des champs de bataille, les militaires développent des armes capables de tirer plus vite, plus longtemps et à moindre coût.


Les batteries de missiles Patriot constituent depuis plusieurs décennies le système de défense aérienne emblématique de l’arsenal des États-Unis. Mais l’évolution des menaces – des roquettes bon marché aux drones encore moins coûteux – a contraint les Américains et d’autres armées à développer toute une gamme d’armes défensives capables d’y répondre.

En représailles aux frappes menées par les États-Unis et Israël, l’Iran mène des attaques aériennes quotidiennes contre Israël et plusieurs pays de la région du golfe Persique à l’aide de missiles et de drones. En décembre 2025, l’Iran a également lancé un raid coordonné de grande ampleur, mobilisant des centaines de missiles et de drones contre Israël.

Le Hamas avait déjà mené une offensive encore plus massive en octobre 2023, tirant plusieurs milliers de roquettes à bas coût et de missiles rudimentaires contre Israël, submergeant son très médiatisé système de défense aérienne Iron Dome. Et dans le conflit entre l’Ukraine et la Russie, on a également observé plusieurs exemples de raids de drones de grande ampleur menés par les deux camps.

En tant qu’ingénieur spécialiste des systèmes de défense, je constate qu’à mesure que se multiplient et se diversifient les menaces – missiles et drones –, les armées sont contraintes d’adapter leur dispositif de défense et de répondre avec une rapidité et une variété comparables.

Les armes défensives sont des éléments de systèmes de défense aérienne intégrés, qui comprennent notamment les moyens de détecter et de suivre les menaces, généralement grâce à différentes formes de radar. Hérités de la guerre froide, les missiles intercepteurs sont l’arme traditionnellement utilisée pour neutraliser ou détruire ces menaces.

Parmi les exemples bien connus de systèmes de défense aérienne utilisant des missiles intercepteurs figurent donc le système Patriot et l’Iron Dome israélien. Ces dispositifs sont conçus pour être efficaces contre un nombre limité de missiles, notamment des missiles balistiques de courte portée, ainsi que contre des avions et des drones. Les États-Unis utilisent également le système Terminal High Altitude Area Defense pour se défendre contre des missiles balistiques de portée intermédiaire, notamment en interceptant ces missiles avant qu’ils ne rentrent dans l’atmosphère terrestre.

Le système Phalanx Close-In Weapon System, montré ici lors d’un exercice de tir, est une mitrailleuse automatisée capable de se défendre contre des drones et des missiles.

Le problème des chiffres

Le conflit actuel dans le Golfe offre un nouvel exemple du calcul implacable au cœur de la défense aérienne. L’Iran a tiré des milliers de missiles et de drones, et il faut souvent plus d’un intercepteur pour abattre un missile entrant. Les États du Golfe seraient aujourd’hui à court d’intercepteurs.

Les stocks américains sont eux aussi sous pression, et les États-Unis envisageraient de déplacer certains intercepteurs depuis la Corée du Sud vers la région du Golfe.

Comme chaque intercepteur coûte plusieurs millions d'euros, utiliser de tels systèmes pour détruire des roquettes qui ne coûtent qu’environ 90 000 euros constitue une équation perdante. Un tel conflit asymétrique est non seulement trop coûteux du côté de la défense, mais il épuise aussi trop rapidement les stocks d’intercepteurs.

De plus, un attaquant peut tout à fait submerger un défenseur. Lors de l’attaque du Hamas contre Israël le 7 octobre 2023, l’approche traditionnelle de la défense aérienne fondée sur les intercepteurs s’est révélée moins efficace que prévu face à une offensive de grande ampleur impliquant des milliers de missiles et de roquettes relativement rudimentaires. Des premiers rapports font également état d’une importante salve de roquettes tirée par le Hezbollah contre Israël le 11 mars 2026.

Ce qu’il faut plutôt, ce sont des approches de défense aérienne capables de s’adapter à l’ampleur et au niveau de sophistication croissants des menaces. Comme le Phalanx Close-In Weapon System de la marine américaine, utilisé pour défendre les navires contre les missiles ainsi que contre de petites embarcations de surface. Il s’agit d’une mitrailleuse automatisée capable de tirer jusqu’à 4 500 coups par minute. Elle détruit les cibles entrantes en les pulvérisant sous les tirs. Chaque munition coûte moins de 30 euros, et une centaine de coups sont généralement nécessaires pour neutraliser une cible.

Si cette approche est plus économique que l’utilisation d’intercepteurs coûteux, le chargeur du Phalanx peut être vidé très rapidement, en 20 à 30 secondes, ce qui le rend vulnérable face à un grand nombre de missiles arrivant simultanément. Il s’agit en outre de la dernière ligne de défense. Idéalement, les menaces doivent être neutralisées bien avant que le système Phalanx n’entre en action.

Drones et drones anti-drones

Des attaques aériennes de grande ampleur et à bas coût impliquant des drones armés ont été utilisées dans la guerre entre l’Ukraine et la Russie ainsi qu’au Moyen-Orient. Bien que les drones puissent être abattus à l’aide de missiles intercepteurs, cette solution n’est pas économiquement efficace. Des systèmes d’armes à canon, comme le Phalanx, se révèlent efficaces contre les drones. Les forces américaines, celles des États du Golfe et les forces israéliennes ont également abattu des drones à l’aide de tirs de canons depuis différents aéronefs.

Une autre approche récente, utilisée par les forces ukrainiennes, consiste à développer des drones anti-drones. Ils peuvent endommager ou détruire d’autres drones par différents moyens, notamment par la guerre électronique – qui consiste à brouiller leurs systèmes de commande radio et de communication – ou par interception cinétique, lorsqu’ils percutent directement le drone ciblé. On pense par exemple à Merops, que les États-Unis seraient en train d’envoyer dans la région du Golfe.

Armes à énergie dirigée

Les armées développent également des armes défensives non cinétiques fondées sur des technologies d’énergie dirigée. Les deux formes les plus courantes d’armes à énergie dirigée sont les lasers de haute énergie et les micro-ondes de forte puissance. Les deux transforment l’énergie électrique en effets physiques capables d’endommager ou de détruire des cibles aériennes.

L’un de leurs principaux avantages par rapport aux armes traditionnelles, c'est qu'ils sont souvent présentés comme disposant d’un « chargeur infini ». Tant qu’ils sont reliés à une source d’électricité, ils peuvent continuer à tirer. Cette affirmation n’est toutefois pas totalement exacte : ces systèmes doivent être mis à l’arrêt périodiquement afin de refroidir. Ils restent néanmoins plus économiques et disposent d’une capacité de tir bien plus importante que les systèmes cinétiques.

Les armées du monde entier déploient des armes à laser de haute énergie pour se protéger contre l’artillerie légère, les drones et les embarcations de surface. Les lasers peuvent produire différents effets, notamment en perforant les cibles ou en provoquant leur embrasement.

Par exemple, le système naval américain High Energy Laser with Integrated Optical-dazzler and Surveillance est un dispositif embarqué de 60 kilowatts utilisé pour la protection aérienne des navires. Il peut perturber, ou éblouir, les capteurs des missiles et des drones.

Les armes à micro-ondes de forte puissance ne sont pas encore aussi avancées pour les applications de défense aérienne. Elles fonctionnent en provoquant des courts-circuits dans les systèmes électriques des missiles et des drones, ce qui leur fait perdre le contrôle et les détourne de leur cible.

Une évolution rapide

Dans le jeu du chat et de la souris qui caractérise la guerre moderne, le développement d’armes offensives s’accompagne en permanence de contre-mesures défensives. Face à la tendance récente consistant à utiliser un grand nombre d’armes moins sophistiquées et relativement peu coûteuses, la réponse actuelle consiste à développer des solutions capables d’être déployées à grande échelle et à moindre coût.

The Conversation

Iain Boyd reçoit des financements du département de la Défense des États-Unis et de la société Lockheed Martin.

PDF

13.03.2026 à 12:16

Pour éviter l’autoritarisme, démocratisons la démocratie

Loïc Blondiaux, politiste, Université Paris 1 Panthéon-Sorbonne

La démocratie en France traverse une crise. Il est urgent de regagner la confiance des citoyens en leur donnant un plus grand rôle dans les affaires publiques.
Texte intégral (3203 mots)

Face au risque de voir le régime démocratique basculer vers l’autoritarisme en raison de la désaffection de ses citoyens, il est urgent de regagner leur confiance en leur donnant un plus grand rôle dans la conduite des affaires publiques, et en leur proposant une véritable éducation démocratique.


La démocratie en France souffre de pathologies dont beaucoup lui sont propres. Certes, la France n’est nullement le seul pays au monde à subir une désaffection croissante des citoyens vis-à-vis de leurs gouvernants, à connaître une montée en puissance des partis d’extrême droite, à se révéler incapable de juguler la montée des inégalités sociales ou de protéger ses citoyens des effets du dérèglement climatique et de la destruction de la biodiversité. Mais dans peu de pays européens comparables, le niveau de défiance des citoyens vis-à-vis de leurs institutions et de leurs gouvernants est aussi fort.

Le système politique, quant à lui, semble incapable de répondre aux aspirations citoyennes. L’inertie du cadre institutionnel est forte. Alors que les citoyens approuvent assez largement l’introduction de la représentation proportionnelle ou l’élargissement du recours au référendum, toute réforme significative des institutions semble pour le moment pratiquement impossible.

C’est l’absence de volonté politique réelle en faveur de la transformation de ces mêmes institutions et la crainte de la part de ceux qui sont parvenus au pouvoir selon certaines règles d’en changer qui expliquent ce quasi-statu quo et cette impasse. Au final, tout se passe comme si les dirigeants des partis politiques français avaient fait leur la formule du prince Salina dans le roman le Guépard (1958), de Giuseppe Tomasi di Lampedusa : « Il faut que tout change pour que tout reste comme avant. » (« Se vogliamo che tutto rimanga come è, bisogna che tutto cambi »)

Nous voudrions pourtant défendre l’idée selon laquelle il existe des solutions politiques, disponibles dès à présent, pour sortir démocratiquement et par le haut de cette impasse.

Répondre aux problèmes de la démocratie par l’introduction de plus de démocratie

Il importe en premier lieu de repenser la place et le rôle des citoyens ordinaires dans le processus représentatif. Ceux-ci ne peuvent plus et ne veulent plus se contenter d’un rôle de simples consommateurs ou spectateurs de la politique. Si le cadre de la démocratie représentative, tel qu’il a été conçu à la fin du XVIIIᵉ siècle par les pères fondateurs du « gouvernement représentatif », en fait une simple « aristocratie élective » de représentants jugés plus sages et plus compétents que le peuple pour prendre des décisions, il est plus que jamais nécessaire de permettre et d’encourager la participation de ce dernier au pouvoir.

Tout indique par exemple, aujourd’hui, qu’il ne pourra y avoir de transition écologique juste sans une implication et une responsabilisation des citoyens. Le mouvement dit des « gilets jaunes » illustre cette nouvelle donne, puisqu’il s’est constitué dans un premier temps contre la « taxe carbone » imposée à tous, sans compensation pour les revenus les plus faibles et sans consultation aucune de la population.

Toute transformation affectant les modes de vie ou le pouvoir d’achat qui serait imposée d’en haut, sans que ceux qui sont les plus directement concernés puissent participer à des choix qui les touchent, risque d’être rejetée par une grande partie de la population.

L’exemple à l’inverse de la Convention citoyenne sur le climat a montré que, dès lors qu’ils sont associés et incités à s’impliquer dans la construction de politiques qui leur paraissent justes socialement et efficaces d’un point de vue environnemental, les citoyens jouent le jeu et sont beaucoup plus ambitieux que les élus.

Un choix à faire : la participation citoyenne ou le despotisme

L’un des principaux facteurs de la défiance actuelle des citoyens vis-à-vis des gouvernants est le sentiment de ne plus être représentés politiquement. Une fraction croissante de la population semble par ailleurs avoir perdu confiance dans la capacité des élections et des partis de gouvernement qui se succèdent au pouvoir à améliorer leurs conditions de vie. Ces deux attitudes les conduisent souvent à espérer qu’un pouvoir d’extrême droite se révélera à la fois mieux capable de tenir compte de leurs intérêts et de prendre des décisions politiques efficaces. Sauf à se résigner à un tel tournant autoritaire, le seul moyen aujourd’hui de légitimer les décisions prises et de redonner confiance en la politique est bien d’associer les citoyens au processus de décision.

Depuis maintenant près de deux décennies, des expériences de démocratie délibérative et participative se sont multipliées à travers le monde. Fondées sur le tirage au sort, elles ont souvent démontré que l’introduction de tels mécanismes, à l’échelle locale ou à l’échelle nationale, pouvait permettre de rendre les décisions politiques à la fois plus efficaces et plus légitimes. S’il est compliqué d’apporter la preuve objective et définitive de la supériorité épistémique et politique des choix construits avec la participation des citoyens, de multiples exemples vont dans ce sens. C’est le cas en particulier des quelques dispositifs qui sont parvenus à coupler démocratie délibérative et référendum, à l’instar des assemblées citoyennes irlandaises.

Est-il possible d’ailleurs d’envisager une autre solution pour rester en démocratie ? C’est la légitimité de l’action politique qui est en jeu. Une grande partie des citoyens, dont le niveau d’éducation moyen s’est élevé, ne supportent plus d’être mis devant le fait accompli et vivent tout projet ou législation les affectant directement sur lesquels ils ne seraient pas consultés comme arbitraire. Si le choix de la délibération et de la participation citoyenne n’est pas fait, la seule option possible pour imposer sa politique devient la force. Et c’est à la répression ou à l’intimidation de la contestation qu’ont tendance à avoir recours aujourd’hui de plus en plus fréquemment des gouvernements qui ne savent pas obtenir autrement le consentement de leur population.

Refondre la démocratie représentative par la responsabilité des élus devant les électeurs

Renforcer la place des citoyens dans le processus démocratique en leur permettant d’être à l’origine des lois (que cela soit sous la forme d’un référendum d’initiative citoyenne ou d’une convention citoyenne), d’être associés à leur rédaction ou de les voter (comme lors d’un référendum classique) implique également de repenser le processus de représentation lui-même et de le rendre plus démocratique.

Jusqu’à ce jour a prévalu une conception de la représentation politique fondée sur la délégation par les citoyens de leur pouvoir d’agir aux représentants via le vote. Un tel acte de délégation suppose, on le sait depuis Locke, une confiance entre le représentant et le représenté. C’est cette confiance qui autorise le représentant à agir pour et au nom de ceux qu’il représente, dans l’intervalle entre deux élections. Si cette confiance n’existe pas, et elle existe aujourd’hui de moins en moins dans les sociétés contemporaines, il convient de la vérifier régulièrement au travers d’épreuves de légitimité, c’est-à-dire la mise en place d’occasions et de situations au cours desquelles le représentant élu vient présenter ses projets aux citoyens afin de recueillir leur sentiment.

L’élu garde le droit de ne pas en tenir compte dans la logique du gouvernement représentatif, mais il devra se justifier et ne peut plus faire comme si les citoyens approuvaient ses choix si ce n’est pas le cas. Pour les citoyens, ces échanges continus avec les élus sont aussi le moyen de mieux former le jugement qu’ils se font de l’action de leurs dirigeants, afin de pouvoir exercer leur droit de les confirmer ou non lors de l’élection suivante.

Face à la démocratie participative, de faux contre-arguments

L’introduction d’une dose significative de participation s’impose donc à la fois pour des raisons normatives – qu’est-ce qu’une démocratie dans laquelle les citoyens sont voués à rester passifs la quasi-totalité du temps en dehors des périodes électorales ? – et pour des raisons pragmatiques du point de vue des gouvernants. Le seul moyen disponible aujourd’hui, hormis la force, pour avoir une chance de convaincre les citoyens qu’une décision est bonne pour eux est en effet de les consulter, et dans l’idéal de construire avec eux l’action publique.

L’un des arguments principaux affichés aujourd’hui et hier par les élus pour ne pas retenir cette option est l’apparent désintérêt des citoyens vis-à-vis de la politique, que toutes les enquêtes démontrent. Les citoyens ne souhaitent nullement remplacer les élus, certes, mais lorsqu’ils se sentent affectés par une question, ils sont capables de se mobiliser, de s’engager et même d’enquêter pour résoudre le problème auquel ils sont confrontés. Chaque jour, des centaines de « publics » au sens du philosophe américain John Dewey – c’est-à-dire un ensemble de personnes mobilisées sur des affaires communes, dotées d’informations sur ces affaires et posant des jugements publics et communs à leur sujet – se constituent et démontrent le caractère vivant de la démocratie dans sa réalité non institutionnelle.

L’autre argument mobilisé contre la participation est celui de l’incompétence du nombre. Mais si les citoyens ordinaires sont jugés incompétents pour décider, pourquoi le seraient-ils moins pour choisir ceux qui vont décider à leur place ? L’idéal démocratique repose sur un axiome de compétence politique universelle. Dans les faits, l’observation montre que les citoyens impliqués dans des dispositifs de type « mini-publics » – représentant en miniature la population pour débattre d’une question, comme lors de la Convention citoyenne sur le climat – ne deviennent jamais des experts de la question qui leur est posée. Ils disposent cependant à chaque fois de suffisamment d’informations pour juger politiquement de cette question, ce qui est l’essentiel.

Des obstacles réels à prendre en compte

La professionnalisation du métier politique est l’un des obstacles principaux au renforcement de la démocratie participative et délibérative. Elle est aussi l’un des éléments de la crise démocratique contemporaine. Rien ne démontre que les représentants professionnels sont plus à même de définir l’intérêt général sur des enjeux essentiels que des citoyens suffisamment informés et à qui on a donné du temps pour y réfléchir collectivement. Si l’on analyse l’impuissance et l’indifférence des représentants élus vis-à-vis du dérèglement climatique ou de l’extinction du vivant à l’aune de ce qu’ont pu produire différentes conventions citoyennes sur le climat qui ont été organisées en France et en Europe, l’inverse se vérifierait plutôt…

Un autre obstacle doit être pris en compte, cette fois-ci plus sérieusement : celui de la disponibilité des citoyens pour l’action politique, disponibilité à la fois matérielle et mentale. Le fonctionnement des sociétés capitalistes et consuméristes contemporaines implique une centralité des activités liées à l’économie. Depuis Hannah Arendt, nous savons que la condition politique, « l’action politique », n’est plus valorisée dans les sociétés contemporaines.

Comment le capitalisme nous infantilise, le titre de la traduction française d’un ouvrage trop méconnu de Benjamin Barber, semble résumer ce point : nous consacrons la majeure partie de notre temps aux activités productives, de loisirs, à la consommation et de plus en plus aux écrans. Cette captation de notre temps par les entreprises et de notre attention par les plateformes numériques implique logiquement une diminution du temps et de l’attention disponibles pour le suivi des affaires publiques et l’engagement politique.

C’est l’une des raisons pour lesquelles les espaces participatifs ou délibératifs sont souvent peuplés de personnes âgées qui ont précisément ce temps que les autres n’ont pas. Dès 1789, Sieyès voyait dans l’indisponibilité physique des citoyens-producteurs l’une des justifications principales de la représentation politique. Les nations modernes, à la différence des cités antiques, ne reposant pas sur l’esclavage, seul un petit nombre d’individus pouvaient selon lui se consacrer à la politique.

Ne peut-on pas, cependant, envisager de penser différemment la distribution sociale du temps ? En permettant aux citoyens, comme cela se fait pour les jurés de tribunaux, d’être détachés pour une certaine durée auprès de la collectivité afin d’y exercer des tâches politiques ? En élaborant un statut du citoyen participant ou en conditionnant l’octroi d’un revenu minimum à l’engagement au service de la cité ?

Un manque criant de formation démocratique

Une dernière limitation à l’extension du domaine de la participation citoyenne doit enfin être considérée : l’acquisition des compétences nécessaires à l’exercice du métier de citoyen fait aujourd’hui largement défaut dans la société française. Cette affirmation peut sembler contradictoire avec l’idée émise précédemment selon laquelle il n’existe pas de compétences requises pour participer en politique. Nous pensons au contraire qu’il est à la fois possible de considérer que tous les citoyens sont également capables de produire des jugements politiques sur des questions parfois techniquement complexes, et de noter que peu, aujourd’hui, ont le sentiment que leur point de vue pourra être entendu ou qu’ils seront capables de l’exprimer de manière convaincante.

Pour exercer son métier de citoyen, il faut en effet être sûr de son propre pouvoir d’agir ; avoir appris à travailler de manière coopérative avec d’autres ; à prendre la parole en public ; à écouter son interlocuteur sans chercher à l’interrompre ; à exprimer ses affects sans avoir peur ou au contraire à les retenir pour ne pas choquer celui auquel on s’adresse ; à passer des compromis ; à s’autolimiter dans ses demandes ; à faire preuve d’empathie et à accepter que la décision finalement prise ne soit pas celle que l’on avait souhaitée à l’origine de la discussion.

Tout ou partie de ces compétences et de ces « émotions démocratiques » peuvent s’acquérir ou se renforcer à travers la famille, mais aussi par l’entremise de l’école, du travail ou de structures d’éducation populaire. Malheureusement, en France, l’école semble aujourd’hui tournée vers d’autres objectifs que l’éducation à la citoyenneté – compétitivité individuelle, formation professionnelle, respect du savoir d’autorité, qualités de rédaction, acquisition de savoirs abstraits plutôt que de savoirs pratiques. Le système scolaire français ne joue ainsi pas sa fonction démocratique.

Simultanément, la capacité des milieux de travail et des structures d’éducation populaire à compenser cette absence de socialisation familiale ou scolaire à la participation politique s’est beaucoup affaiblie au cours des dernières années. Or, une démocratie sans citoyens disponibles et capables de participer au processus de décision n’est plus vraiment une démocratie.

L’enjeu de ce retour des citoyens ordinaires dans le processus de décision démocratique est, selon nous, considérable. Si la démocratie n’est qu’un mot et non une réalité pour la plupart, si elle relève exclusivement des professionnels de la politique ou d’institutions hors d’atteinte, fermées et sourdes à toute contribution externe, à quoi bon s’y intéresser ou la défendre ?

Au moment où, après la réélection de Donald Trump aux États-Unis, il est légitime de s’inquiéter sérieusement de la perspective d’un effondrement en cascade de l’ensemble des sociétés perçues jusqu’alors comme solidement démocratiques, il serait peut-être temps de transformer les concepts de « démocratie » et de « pouvoir citoyen » en réalités…


Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj.

The Conversation

Loïc Blondiaux est membre du CA de l'Institut de la Concertation et de la Participation Citoyenne ainsi que de la Commission Nationale du Débat Public.

PDF

12.03.2026 à 16:57

Le pouvoir des communes face à l’État : enjeu caché des municipales

Luc Rouban, Directeur de recherches (CNRS) au Cevipof, Sciences Po

Le pouvoir municipal est travaillé par deux dynamiques contradictoires. Un pouvoir de proximité, apprécié des citoyens. Et un pouvoir contraint par l’État, par les dotations financières et les normes d’action publique.
Texte intégral (2330 mots)

À un an de l’élection présidentielle, les municipales de 2026 sont un scrutin charnière, révélateur de l’état réel du paysage politique français. Cependant, derrière l’affrontement partisan se joue un enjeu plus profond : savoir si la commune reste un lieu essentiel de notre démocratie, ou si elle s’est muée en simple rouage administratif.


Les élections municipales de 2026 vont revêtir une importance particulière. Tout d’abord, parce qu’elles vont constituer un test pour mesurer les rapports de force politiques avant l’élection présidentielle de 2027 qu’elles précèdent immédiatement, une situation qui ne s’était pas reproduite depuis 2001. Ensuite, parce qu’elles interviennent dans un contexte de trouble, voire d’usure démocratique. La séquence ouverte par les élections législatives de 2024, faite d’instabilité et d’impuissance gouvernementale, est venue parachever un processus de décomposition et de recomposition politique amorcé depuis 2017 et la première victoire d’Emmanuel Macron.

Mais derrière les enjeux partisans se profile un enjeu caché, celui de la conception même du rapport au politique. Les élections municipales de 2026 vont raviver un très ancien débat sur ce que sont les communes et le pouvoir local. S’agit-il d’une forme d’organisation urbaine destinée à rationaliser l’action publique ou bien de l’expression plus ou moins spontanée de libertés venant se concrétiser dans une communauté ?

La nationalisation des élections municipales

Bien qu’elles soient locales par définition, les élections municipales vont revêtir une valeur nationale. Dans l’état actuel de confusion politique, chaque parti entend montrer qu’il dispose d’un ancrage territorial et se trouve ipso facto en mesure de répondre aux attentes des Français sur le terrain. Le Rassemblement national (RN) est devenu le parti dominant, mais n’a pas pu réunir un vivier d’élus locaux suffisant pour démontrer son omniprésence et a préparé environ 700 listes. Son espoir est de conquérir quelques grandes villes, comme Calais ou Toulon. La question se posera de savoir si la suprématie des Républicains (LR) dans les villes de plus de 9 000 habitants, actée en 2020, pourra se prolonger sans entériner « l’union des droites » avec le RN.

À gauche, la fin du Nouveau Front populaire met en concurrence La France insoumise (LFI) et le Parti socialiste (PS) pour le leadership dans la perspective de la présidentielle de 2027, avec l’engagement de députés LFI à l’assaut de Paris ou de Marseille. Le PS va mesurer la portée de sa stratégie de recentrage et d’alliance avec Les Écologistes pour espérer récupérer des villes passées à droite en 2014, comme Reims ou Toulouse. Pour le bloc central, l’enjeu est celui de savoir ce que pèse encore le macronisme, alors que Renaissance a préféré soutenir des candidats Horizons (à Paris), divers droite (à Lyon) ou d’anciens LR (à Marseille).

Projeter sur les élections municipales les enjeux de l’élection présidentielle permet aux partis politiques de renforcer leur légitimité alors qu’ils sont désormais faibles et incapables de canaliser la violence sociale. Cette instrumentalisation occulte cependant la nature du débat démocratique que soulèvent ces élections.

Une histoire du long terme

Pour comprendre ce dont se revêt le pouvoir municipal dans la France de 2026, il faut bien cerner l’importance d’un débat historique qui entoure l’apparition du fait communal au détour des IXe et Xe siècles. Les communes, souvent issues des paroisses catholiques, se sont alors multipliées dans un cadre juridique nouveau, celui de chartes passées avec des autorités de tutelle – rois, seigneurs, autorités ecclésiastiques – qui leur concédaient des libertés de gestion mais, surtout, reconnaissaient l’existence de pouvoirs sociaux autonomes : les communes deviennent des personnes morales.

On doit surtout retenir le fait qu’elles deviennent l’expression d’une solidarité entre les habitants, qui se doivent « foi, assistance et conseil ». Ceux-ci participent à des assemblées générales convoquées « à corz cornant et à cloiche sonant », selon un modèle institutionnel qui se diffuse en Europe.

Deux facteurs sociopolitiques vont jouer un rôle décisif dans l’invention de la commune, que l’on retrouve très clairement dans la France du XXIe siècle : d’une part, un mouvement de différenciation et d’individuation, qui conduit à l’affirmation d’une identité locale collective ou communautaire et, d’autre part, un effondrement du pouvoir central, marqué par l’instabilité et l’inefficacité. Petit parallèle historique : Louis II dit le Bègue reste roi des Francs deux ans (877-879), Charles III le Gros trois (884-887), tout comme Louis III (879-882), et le dernier roi carolingien, Louis V, un an (986-987). Comme le souligne Émile Durkheim dans un texte de 1903 : « L’activité de la société est en raison inverse de l’activité de l’État. » L’émancipation de la société conduit à inventer de nouvelles structures politiques qui permettent de se protéger et d’affirmer ses libertés.

De l’institution communautaire à l’institution oligarchique

Cette conception de la commune va disparaître sous l’effet d’un mouvement de concentration oligarchique qui s’opère à partir du XIVe siècle, puis d’une nouvelle doctrine juridique venant à l’appui de la centralisation monarchique à partir du XVIᵉ siècle, qui fera progressivement de la commune un simple rouage de la puissance royale, dont les représentants, les maires, ne sont plus élus mais titulaires d’offices, dont l’achat devient une aubaine financière pour l’État. En 1555, un édit royal crée les généralités (ancêtres de nos préfectures) sous la conduite d’un intendant nommé par le roi qui va contrôler les finances communales et vérifier si les élus ne s’octroient pas trop d’indemnités.

Cette évolution oligarchique et de concentration du pouvoir municipal est le produit de deux facteurs opposés. Le premier, apparu très tôt, est le besoin de disposer de maires ayant fait des études juridiques et disposant d’un bagage universitaire. Très vite, dès le XIIIe siècle, les bourgeois sont à la recherche de bons maires pour leur commune, ce qui implique déjà un certain savoir-faire professionnalisé. Cette nouvelle élite va s’associer à la bourgeoisie marchande et aux Parlements pour contrer le pouvoir royal mais, de ce fait, s’insérer dans de plus vastes réseaux sociaux et familiaux. Le second, inverse, mais jouant paradoxalement dans le sens d’une dévitalisation de l’idée communale et communautaire originelle, tient à la construction de l’État moderne, qui impose de disposer de rouages locaux et appuie les élites locales dans leur lutte contre la noblesse et les seigneurs.

Les conseils et les « jurés » ou les « échevins » vont rapidement s’imposer, tandis que les assemblées de citoyens disparaissent peu à peu. Bien que la Révolution et les régimes républicains qui lui succèdent fassent de l’élection démocratique le ressort du pouvoir municipal, ce dernier se réduit désormais à un contre-pouvoir plus ou moins fragile par l’insertion des maires dans la notabilité, qui conduit aux fonctions politiques nationales.

Le pouvoir municipal à la croisée des chemins

En 2026, le pouvoir municipal se retrouve en tension entre ces deux acceptions de la commune. La première est celle du pouvoir direct des citoyens, tel qu’il s’exprime positivement dans l’investissement dans les assemblées participatives locales et, négativement, dans les agressions dont les maires font l’objet en nombre croissant. L’idée d’un pouvoir de proximité, efficace et rapide, est partagée par une majorité de citoyens. Le Baromètre de la confiance politique du Cevipof montre ainsi qu’a émergé une autre idée du pouvoir politique, moins partisan et plus soucieux du détail des vies ordinaires.

Alors que le pouvoir central est fortement critiqué, le pouvoir local est apprécié : si 22 % des enquêtés ont encore confiance dans l’institution présidentielle, 60 % font confiance à leur maire, 58 % à leur conseil municipal. Bien plus, la demande de décentralisation est forte. Les enquêtés estiment à 79 % qu’il faudrait donner plus de pouvoir aux collectivités locales face l’État. Cette moyenne ne varie ni en fonction du niveau de diplôme, ni de la catégorie socioprofessionnelle, ni même du vote au premier tour de l’élection présidentielle de 2022 puisque cette proportion est de 82 % chez les électeurs de Jean-Luc Mélenchon, de 81 % chez ceux d’Emmanuel Macron et de 83 % chez ceux de Marine Le Pen. On est donc en présence d’une demande générale.

La commune reste le lieu de l’efficacité immédiate et de son évaluation rapide par les administrés. La gestion municipale reste d’ailleurs assez étrangère aux engagements partisans. Ce n’est pas par hasard si le facteur qui joue le plus sur le niveau de confiance dans les maires, bien avant la position politique ou les variables sociologiques lourdes, est constitué par le niveau de confiance dans les entreprises privées. Cette observation introduit cependant la seconde dimension du pouvoir municipal.

Celui-ci s’est concentré entre les mains des maires dans un cadre institutionnel où la « prime majoritaire » du scrutin laisse peu de place aux oppositions puisqu’une victoire modeste dans les urnes peut conduire à disposer d’une majorité écrasante de conseillers municipaux. Jusqu’à 50 000 habitants, en moyenne, les listes gagnantes ont obtenu en 2020 autour de 80 % des conseillers, 73 % entre 50 000 et 100 000 habitants et 69 % dans les grandes villes au-delà de 100 000 habitants avec une diversification de la compétition électorale.

Mais on observe aussi un renforcement récent du caractère oligarchique du pouvoir municipal, notamment par le développement des politiques de communication qui personnalisent fortement l’action municipale et valorisent la seule image du maire. Le profil socioprofessionnel des maires est devenu par ailleurs de plus en plus étroit, privilégiant les catégories supérieures ou moyennes diplômées. Entre 2014 et 2020, la proportion de maires issus des catégories supérieures est passée en moyenne dans l’Hexagone de 25 % à 43 %, et dans les outre-mer de 42 % à 49 %. Le mouvement est général, même si la taille des communes vient le moduler, puisque cette proportion passe de 34 % dans les communes de moins de 500 habitants à 72 % dans celles de 30 000 habitants et plus.

Origine sociale des maires de France en 2019 et 2025

Même si les maires bénéficient d’un crédit perdu par le personnel politique national, ils constituent néanmoins une oligarchie souvent impuissante. Les communes dépendent étroitement des dotations financières de l’État et doivent s’insérer dans un carcan de normes nationales tant en matière de santé, d’environnement que de développement urbain ou économique. L’autonomie locale est encore réduite par la nécessité de s’insérer dans des intercommunalités qui décident de plus en plus de la vie quotidienne des habitants, en matière de transports ou de voirie. La décentralisation a été interprétée comme une déconcentration de l’État, laissant les tâches routinières et ingrates au local.

La question municipale résume donc, en 2026, les deux orientations contradictoires qui mettent la démocratie à l’épreuve de l’arbitrage entre deux efficacités politiques. La première reste fidèle à une anthropologie politique faisant du local un lieu de solidarité, de participation et d’identité, ce qui explique pourquoi la France a toujours 35 000 communes. La seconde fait de la gestion municipale un facteur d’adaptation territoriale d’une action publique unitaire et verticale supposée intégrer la société française.


Luc Rouban, est l’auteur de la Société contre la politique aux Presses de Sciences Po. Cet article est publié en partenariat avec Conférence Sciences Po.

The Conversation

Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.03.2026 à 16:55

Peut-on faire confiance aux sondages politiques ? Un statisticien nous donne les clés pour les décrypter

Léo Gerville-Réache, Modélisation statistique, Université de Bordeaux

En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques.
Texte intégral (2119 mots)

En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques, déterminer comment elles sont construites et déterminer les biais et les incertitudes.


Le dimanche 7 juillet 2024, le verdict des urnes a balayé des semaines de « certitudes statistiques ». Alors que les instituts plaçaient le Rassemblement national (RN) et ses alliés en tête avec une fourchette de 170 à 230 sièges, les résultats définitifs ont figé le compteur à 143 sièges, reléguant le parti à la troisième place.

Comment un appareil statistique aussi sophistiqué a-t-il pu manquer la physionomie de l’Assemblée à ce point ? La réponse ne réside pas seulement dans de « mauvais chiffres », mais dans un décalage structurel entre ce que la loi encadre, ce que la statistique permet, et ce que le public entend.

Le « sondage » contrôlé contre la « projection » libre

Depuis la loi no 2016-508 du 25 avril 2016, la Commission des sondages est chargée de veiller au respect de la réglementation. Elle s’est dotée d’un site donnant accès aux notices explicatives de l’ensemble des sondages électoraux publiés, et publie régulièrement des communiqués. Le 18 juin 2024, à l’occasion des élections législatives, la commission alerte sur une distinction juridique fondamentale qui échappe souvent au grand public :

  • Le sondage (contrôlé) : une enquête statistique sur un échantillon représentatif de l’ensemble du territoire hexagonal. La commission exerce ici un contrôle systématique sur la méthode de sélection, les quotas et les redressements.

  • La projection en sièges (non contrôlée) : c’est un exercice de « traduction » du vote national en sièges parlementaires. La commission est formelle : elle n’exerce aucun contrôle sur ces chiffres et recommande la prudence.

Pourquoi ? Parce que la projection est tributaire de 577 réalités locales : offre politique spécifique, notoriété des candidats et, surtout, les configurations de seconds tours (triangulaires, désistements) qui dépendent du taux de participation. En somme, la loi encadre la « matière première » (l’intention de vote), mais laisse le « produit fini » (la projection en sièges) dans une zone grise méthodologique.

Le mirage des marges d’erreur

L’un des plus grands malentendus réside dans l’affichage des marges d’erreur, perçues à tort comme une mesure globale de la fiabilité. Depuis la loi de 2016, chaque première publication d’un sondage doit obligatoirement indiquer sa marge d’incertitude. Pourtant, la quasi-totalité des instituts français utilise la méthode des quotas, une technique sur laquelle la notion mathématique de marge d’erreur n’a techniquement « pas de sens », comme les instituts l’admettaient eux-mêmes devant le Sénat.

En « théorie des sondages », on distingue explicitement :

  • les sondages « aléatoires », où chaque individu de la population cible du sondage a une probabilité connue et non nulle de faire partie de l’échantillon de répondants, et on se sert de ces probabilités pour établir des marges d’erreur. Ici la « représentativité » est, par construction, indiscutable.

  • les sondages par « quotas » où il s’agit de contrôler que la structure de l’échantillon de répondants au sondage est similaire à celle de la population cible (essentiellement : sexe, âge, catégorie socioprofessionnelle, région de résidence et catégorie d’agglomération). Ici, la « représentativité » est seulement partiellement contrôlée, et la probabilité de chaque individu, d’appartenir à l’échantillon, est inconnue.

Pour comprendre l’origine de cette ambiguïté sur les marges d’erreur, il faut remonter au rapport no 54 du Sénat de 2010 qui a entériné un glissement sémantique majeur en estimant qu’il était « tout à fait possible » de considérer que les quotas génèrent des incertitudes « similaires » à la méthode aléatoire.

Or, Pascal Ardilly (inspecteur général de l’Insee et auteur de l’incontournable livre les Techniques de sondage), auditionné par le Sénat, précisait explicitement que faire l’hypothèse de marges d’erreur similaires pour les résultats d’un sondage, qu’il soit issu de la méthode des quotas ou de la méthode aléatoire, relevait d’une hypothèse très forte et non vérifiée d’absence de biais pour la méthode des quotas.

Un glissement analogue apparaît avec l’usage tronqué de la notion d’« échantillonnage contrôlé » attribuée à Jerzy Neyman (considéré comme l’un des fondateurs de la statistique moderne).

En omettant le mot « aléatoire » dans l’expression originelle « échantillonnage aléatoire contrôlé », on fait comme si le contrôle des quotas pouvait se substituer au hasard. Pourtant, scientifiquement, le mot « aléatoire » change tout : le « contrôlé » n’est pas une ambiance mais un hasard encadré par un plan de sélection rigoureux qui permet de construire mathématiquement des marges d’erreur.

C’est ce qui rend la notion de « représentativité » si exigeante : elle ne peut être revendiquée que si les marges d’erreur découlent scientifiquement du plan de sélection, ce que la méthode des quotas ne peut pas invoquer, en toute généralité. En reprenant une formulation de compromis – « les marges d’erreur… le cas échéant par référence à la méthode aléatoire » – la loi a figé des mots statistiques sans en figer les conditions de validité, laissant croire au public que la marge d’erreur affichée (en général, seulement lors de la première publication) est l’assurance tous risques d’un chiffre qui se veut destin.

Quand la convergence fabrique l’erreur collective

En science, il est souvent rassurant de constater que diverses études donnent des résultats « compatibles ». Malheureusement, il peut s’agir d’une hallucination collective !

En 2024, les principaux instituts de sondage dont les travaux étaient relayés dans les médias, donnaient, quelques jours avant le second tour, des projections très éloignées des résultats définitifs.

Ce phénomène est ce que j’appelle une « communauté de biais ». Lorsque plusieurs instituts utilisent des méthodes similaires et des redressements basés sur les mêmes hypothèses (comme le report de voix entre blocs), une erreur commune peut se produire. La stabilité des chiffres n’est alors pas un gage de fiabilité, mais le symptôme d’une confiance collective dans une erreur collective.

La présidentielle : un cadre « pur » qui n’élimine pas les biais

Dans le cadre de l’élection présidentielle, le dispositif semble pourtant idéal : on sort des incertitudes liées aux 577 scrutins locaux pour revenir au « sondage pur », tel que défini et strictement contrôlé par la commission. Cependant, il est impératif de comprendre que le contrôle réglementaire assure une transparence démocratique, mais ne garantit en rien une « vérité » statistique. Le malentendu principal réside dans la confusion entre la marge d’erreur théorique et la fiabilité globale.

Lors de l’élection présidentielle de 2012, par exemple, pour une intention de vote de 25 %, les marges d’erreur « théoriques » affichées étaient de l’ordre de 1,8 à 2,7 points (selon le nombre de répondants). Après analyse statistique des écarts des résultats de tous les candidats entre le scrutin et les dernières estimations, elles se situaient en réalité entre 4 et 6 points. Pour exemple, un candidat crédité de 25 % d’intention de vote était essentiellement prévu entre 23 % et 27 % alors que la précision sincère du sondage se situait entre 21 % et 29 %.

Ce décalage s’explique par la nature même de l’erreur totale, qui n’est pas qu’une simple variance (un flou lié à la taille de l’échantillon et sa variabilité), mais peut aussi être un biais (un décalage structurel). Ce biais est alimenté par la vie réelle des sondages : non-réponses, indécisions, modes de collecte ou ajustements méthodologiques plus ou moins assumés.

Lorsque tous les acteurs utilisent des méthodes de redressement et des panels « similaires » (électeurs recrutés essentiellement sur Internet et qui répondent régulièrement aux sondages qui leur sont soumis), ils peuvent produire une histoire cohérente… mais erronée dans la même direction.

Ce constat impose, il me semble, une véritable « hygiène du commentaire » : il faut cesser de considérer les « fourchettes » affichées (lorsqu’elles le sont) comme le curseur permettant de décider si une campagne « stagne », « bouge » ou « bascule ».

2027 : Vers une maturité de l’information électorale ?

À l’approche du double scrutin de 2027 – l’élection présidentielle suivie d’élections législatives – l’enjeu n’est pas seulement de savoir qui « gagnera », mais de définir comment nous acceptons d’être informés (voire influencés). La séquence de 2024 a servi de rappel brutal : un appareil « statistique », aussi sophistiqué soit-il, peut totalement manquer la physionomie d’une assemblée si l’on confond l’intention de vote nationale avec la projection locale en sièges.

Pour l’élection présidentielle de 2027, le défi sera de ne pas se laisser enfermer dans le confort d’un chiffre unique. Le cadre sera « pur » et contrôlé par la Commission des sondages, mais l’expérience de 2012 (et en réalité celle de bien d’autres) nous rappelle qu’une marge d’erreur « théorique » de deux points peut masquer une imprécision réelle de plus de cinq points une fois les biais potentiels intégrés. Il est temps que les médias et le public adoptent un « pacte de sobriété » : privilégier les fourchettes larges et admettre qu’à trois points (voire cinq points) d’écart, rien n’est clair.

Concernant les législatives qui suivront, la vigilance devra être redoublée sur les projections en sièges. Comme l’a souligné la Commission des sondages, ces exercices ne bénéficient d’aucun encadrement méthodologique strict et dépendent de paramètres locaux (offres politiques, désistements) qu’un sondage national ne peut saisir. Continuer à présenter ces projections comme des résultats scientifiques et fiables, c’est entretenir une « confiance collective dans une erreur collective ».

En définitive, mon propos appelle une alliance entre culture statistique et culture civique. La loi de 2016 a ouvert la « boîte noire » en imposant la transparence des notices. Il appartient désormais aux acteurs du débat public de transformer cette transparence en une véritable « hygiène du commentaire ».

Un chiffre n’est pas un destin, c’est une mesure ; et en démocratie, le destin n’appartient qu’au vote, une fois les hypothèses, les méthodes, les estimations et les projections remises à leur juste place.

Et pour les élections municipales ? Dans les grandes villes (Paris, Lyon, Marseille…), les instituts s’appuient le plus souvent sur leurs panels, puis filtrent les répondants pour ne retenir que les personnes inscrites sur les listes électorales de la commune (et, le cas échéant, de l’arrondissement/secteur). La méthode des quotas et les redressements restent les principaux outils statistiques mobilisés pour estimer les intentions de vote. Restons vigilants !

The Conversation

Léo Gerville-Réache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.03.2026 à 16:55

Peut-on encore éviter la disparition du saumon sauvage en France ?

Étienne Prévost, Directeur de recherche, Inrae

Amaia Lamarins, Chercheuse en post-doctorat, University of Helsinki

Mathieu Buoro, Chercheur, Inrae; Université de Pau et des pays de l’Adour (UPPA)

Malgré l’interdiction de sa pêche, le saumon sauvage décline en France. Il est urgent de rétablir la continuité écologique le long des cours d’eau.
Texte intégral (2918 mots)

Alors que la pêche à la truite va rouvrir le 14 mars 2026, celle du saumon atlantique sauvage restera, cette année encore, interdite. Pas de miracle à attendre toutefois de cette mesure : le déclin alarmant que connaît cette espèce emblématique semble d’abord lié à la dégradation de ses conditions de vie. Peut-on encore préserver ce poisson grand migrateur dans les rivières françaises ? Dans un souci d’efficacité à court terme, la priorité est de rétablir la continuité écologique des milieux, c’est-à-dire de réduire le nombre d’obstacles (barrages en particulier) qui se dressent sur sa route.


La pêche du saumon atlantique sauvage (Salmo salar) a été interdite partout en France en 2025. Cette mesure sans précédent a été reconduite en 2026. Cette décision est la conséquence de très faibles retours de saumons adultes dans les rivières françaises.

Comment en est-on arrivé là ? Poisson grand migrateur vivant alternativement en rivière et en mer, le saumon atlantique est une espèce emblématique qui a fortement régressé au fil des siècles, particulièrement en France. En cause, le développement des activités humaines sur les cours d’eau et, en premier lieu, la construction de barrages, qui font obstacle à ses migrations, depuis et vers ses zones de reproduction.

Aujourd’hui, il est aussi menacé par le changement climatique. La France est en effet située sur la marge sud de l’aire de répartition de cette espèce d’eau froide. Le saumon pourrait-il bientôt déserter les cours d’eau français ? Peut-on encore l’en empêcher ? État des lieux.

Une détérioration brutale ces dernières années

À l’état sauvage, le saumon ne subsiste plus naturellement en France que dans certains cours d’eau du fond du golfe de Gascogne – principalement le bassin de l’Adour – ainsi que dans des fleuves côtiers de l’extrémité ouest de la péninsule bretonne et de la côte normande.

Il a disparu de tous les grands fleuves français, à l’exception de l’Allier, affluent amont de la Loire, qui héberge encore une population, désormais en danger d’extinction. La conservation des populations est la priorité reconnue au plan international et national.

Après une forte diminution observée depuis au moins les années 1970, les effectifs d’adultes remontant les rivières s’étaient plutôt stabilisés en France à partir des années 1990. Les toutes dernières années, en particulier depuis 2024, ont toutefois été marquées par un nouveau fléchissement, vraisemblablement sous l’effet d’une dégradation soudaine des taux de survie de l’espèce dans l’océan Atlantique Nord. Celle-ci semble avoir affecté plus particulièrement les populations de saumon les plus au sud de la façade ouest-européenne.


À lire aussi : En Europe, plus d’un million de barrages menacent la survie des poissons


Au-delà de l’interdiction de pêche, quelles solutions pour enrayer le déclin ?

S’agit-il d’une turbulence passagère, ou bien d’une transition vers des conditions adverses plus pérennes du fait du changement climatique ? Cette question reste ouverte.

Dans l’urgence, la fermeture de la pêche décidée en 2025 en France permet d’alléger le fardeau que l’humain impose au saumon, mais il ne faut pas trop en attendre. En effet, son exploitation légale est actuellement à des niveaux historiquement bas. Les captures accidentelles, lorsqu’elles ne sont pas illégales, devraient bien sûr être minimisées, mais il est très improbable qu’elles puissent expliquer, à elles seules, les baisses drastiques récemment observées sur l’ensemble des cours d’eau français.

Tacon (jeune saumon). Katie Marony/USFWS

Il pourrait être tentant de supplémenter artificiellement les populations par des déversements de juvéniles produits en élevage. Mais il est aujourd’hui établi que ces pratiques, largement mises en œuvre depuis plus d’un siècle, sont le plus souvent inefficaces, voire nocives, et en aucun cas durables.

Pour ce qui est du milieu marin, on ne dispose pas vraiment de levier d’action, faute de connaissances scientifiques suffisamment précises sur la vie en mer du saumon et en raison de l’ampleur du domaine océanique dans lequel l’espèce évolue.

L’option la plus pertinente reste la restauration de conditions environnementales plus favorables au saumon en rivière, où se déroule la reproduction, étape clé du renouvellement des populations. La priorité doit être donnée à la restauration d’une liberté de migration vers l’amont et vers l’aval, aujourd’hui restreinte par nombres d’obstacles le long des cours d’eau.


À lire aussi : En Europe, plus d’un million de barrages menacent la survie des poissons


La meilleure solution : détruire les barrages

Depuis quelques décennies, une politique proactive d’aménagement des obstacles pour faciliter leur franchissement par les poissons a été mise en place, en France et en Europe, sur à peu près tous les bassins encore colonisés par le saumon. Elle a montré son efficacité en contribuant à stabiliser la situation de l’espèce jusqu’à très récemment.

Évolution de l'abondance du saumon sauvage en France jusqu’à 2020. Clément Lebot, Étienne Rivot, Laurent Beaulaton, Mathieu Buoro, Marie Nevoux, et al.., Fourni par l'auteur

Cette politique est aussi une voie d’adaptation à privilégier et à amplifier sans attendre face aux nouvelles menaces à venir, en particulier le changement climatique. Lorsqu’elle est ciblée sur des bassins où le saumon est encore présent à l’état sauvage, les effets positifs peuvent être rapides, significatifs et durables.

Parce qu’elle permet le maintien des usages, la construction de dispositifs de franchissement (type « passes à poissons ») est la « solution » la plus fréquemment mise en œuvre, bien que leur efficacité ne soit pas toujours garantie. Elle peut aussi être drastiquement réduite dans les cas où l’on rencontre plusieurs aménagements successifs le long d’un même cours d’eau, même lorsque chacun est individuellement performant. Le recours aux dispositifs de franchissement est également plus risqué, car leur efficacité pourrait être altérée par des changements à venir dans les régimes hydrauliques des rivières.

Le barrage hydroélectrique de la Roche-qui-boit (Ducey, Manche), sur la Sélune, a été détruit en 2022. Epncantonducey/Wikimanche, CC BY-SA

Pour restaurer la libre circulation des poissons dans les cours d’eau, la destruction des ouvrages, en particulier quand ils n’ont plus d’usage, est la solution de choix. Après d’autres plus anciens, les arasements récents de barrages sur la Sélune en Normandie et la Nivelle au Pays basque constituent des exemples de réussite à suivre et à multiplier.

À la clé, des déplacements plus rapides depuis et vers des zones de reproduction et d’élevage des jeunes plus vastes, plus diversifiées et situées plus en amont des cours d’eau. Les bénéfices sont multiples pour faire face à aux conditions environnementales nouvelles, réchauffement des eaux et régimes hydrauliques plus contrastés (étiages et crues extrêmes), qui pourraient découler du changement climatique.

  • Tout d’abord, cela permet d’étendre les milieux colonisables, et donc d’augmenter les effectifs des populations. De quoi favoriser aussi la diversité génétique et accroître les opportunités d’adaptation.

  • Ensuite, cela réduit la mortalité due aux obstacles et aux infrastructures associées – canaux de dérivation, turbines hydroélectriques, installations piscicoles… On peut ainsi compenser d’éventuelles baisses de la survie en mer.

  • Enfin, les zones à l’amont des cours d’eau, souvent plus fraîches, peuvent jouer un rôle de refuge thermique pour cette espèce d’eau froide.

Suppression du barrage Urrutienea sur la Nivelle (Pyrénées-Atlantique).

Le saumon sauvage, victime collatérale de la décarbonation ?

Alors que l’expertise scientifique est aujourd’hui trop souvent traitée comme une opinion parmi d’autres, nous avons conscience que l’amplification de la politique de restauration de la libre circulation, défendue ici, n’est pas et ne sera pas une évidence pour tous.

L’issue du combat pour tenter de préserver le saumon en France étant incertaine, la tentation première de ne rien faire est grande. D’autant plus que les travaux scientifiques spéculant sur le devenir des populations, toujours par essence discutables, peuvent être mal interprétés ou instrumentalisés par des acteurs qui ont intérêt à réduire les entraves aux usages de l’eau. Certains argueront ainsi que, pour le saumon, le combat face au changement climatique est perdu d’avance.

Paradoxalement, l’espèce pourrait aussi être la victime collatérale de la lutte contre le changement climatique. En effet, la production d’électricité décarbonée (d’origine hydraulique, mais aussi nucléaire) est aujourd’hui promue, alors qu’elle nuit directement (de par les obstacles, mais également les changements de températures) à la libre circulation des poissons en rivière.

Restaurer la libre circulation du saumon sur les quelques bassins où il est encore présent naturellement aurait un coût marginal faible à l’échelle nationale, mais sa mise en œuvre est complexe dans la mesure où elle implique d’intervenir sur chaque obstacle aux migrations. À cette échelle, le coût économique et sociétal peut devenir un élément bloquant pour certains acteurs et parties prenantes.

Enfin, les pêcheurs, bien que leur activité dépende très directement de la conservation des populations de saumon, se montrent souvent plus préoccupés par des questions à court terme de partage de la ressource. Les conflits entre pêche professionnelle et pêche de loisir mobilisent beaucoup d’efforts, y compris des services de l’État, qui pourraient être mieux utilisés pour faire face collectivement au défi de la restauration de la libre circulation.

Le saumon est une espèce emblématique, avec qui nous entretenons des rapports particuliers depuis plusieurs siècles. Il est aujourd’hui au cœur de conflits qui le dépassent : enjeux à court vs long terme, locaux vs globaux, transition énergétique vs préservation de la biodiversité… Son statut en France, d’ici la fin du siècle, sera révélateur des priorités et des compromis que nous aurons collectivement mis en œuvre.

The Conversation

Etienne Prevost a reçu des financements publics.

Amaia Lamarins et Mathieu Buoro ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

12.03.2026 à 16:55

Protéger les filles, canaliser les garçons ? L’éducation à l’information face aux stéréotypes de genre

Anne Cordier, Professeure des Universités en Sciences de l’Information et de la Communication, Université de Lorraine

Pour faire de l’éducation à l’information un levier d’émancipation pour tous les adolescents et adolescentes, il faut dépasser les assignations de genre qui pèsent sur les usages numériques.
Texte intégral (1708 mots)

Plus enclines à douter de leurs pratiques d’information, les filles sont aussi plus souvent questionnées sur leurs émotions face à l’actualité. Prendre conscience des biais de genre qui pèsent sur les usages numériques est un préalable pour faire de l’éducation à l’information un levier d’émancipation et aider adolescentes et adolescents à construire leur autonomie critique. Explications.


Travail, santé, espace public… Chaque année, en mars, dans le sillage de la Journée internationale des droits des femmes, on s’arrête sur les inégalités de genre dans différents domaines de la vie sociale. Et si nous faisions ce pas de côté dans un champ moins visible, celui des pratiques d’information des adolescents et de leur accompagnement ?

Lire l’actualité, chercher des sources pour un exposé, suivre des créateurs et créatrices de contenus, débattre en ligne : ces activités font partie intégrante de leur quotidien. En tant que pratiques culturelles, elles sont traversées par les mêmes rapports sociaux de genre que le reste de la vie sociale.

En outre, le numérique n’est pas un espace « hors-sol », neutre ou désincarné, mais un espace socialement situé où se rejouent des normes et des tensions sociétales. Les inégalités de genre y prennent des formes parfois spécifiques, mais toujours en lien avec les contextes sociaux, médiatiques et politiques. Et leur traitement éducatif n’échappe pas à ces cadrages.

Dès l’enfance, un numérique sous conditions

Les rapports genrés au numérique, à l’information et aux médias se construisent tôt, dans la socialisation familiale.

Des enquêtes de terrain menées auprès de collégiennes avaient en 2015 montré combien l’utilisation d’Internet au sein de la famille se faisait en fonction de la réalisation des tâches ménagères à destination de la collectivité. Autrement dit les filles déclaraient devoir s’acquitter d’impératifs liés à la vie, notamment matérielle, de la famille en général. Les garçons, eux, n’évoquaient quasiment jamais cette conditionnalité.

Dix ans plus tard, lors d’une enquête ethnographique menée au sein d’un collège d’éducation prioritaire, les adolescentes glissent les mêmes impératifs de tâches de gestion familiale lors de l’évocation de leurs pratiques numériques à domicile.

Ces observations font écho aux travaux sur la division sexuée du travail domestique dès l’enfance, prolongeant également les recherches sur l’informatique et les cultures numériques historiquement construites comme des territoires masculins. Cette assignation symbolique continue d’agir, y compris dans les usages informationnels, ceux-ci étant fortement dépendants de l’accès aux objets techniques.

Autorités masculines, expertes invisibles

Les contenus consultés et les légitimités associées sont aussi marqués par une distinction fortement genrée. Quand on demande aux adolescentes et adolescents de citer des figures d’autorité à leurs yeux dans le champ de l’information, les noms masculins dominent largement. De Hugo Décrypte à Mister Géopolitix en passant par Gaspard G, les modèles invoqués sont très majoritairement masculins. Ce sont également eux qui sont les plus reconnus par les adultes, à l’école comme dans les médias,

Les créatrices de contenu diffusant des savoirs scientifiques, dans le domaine de la santé ou de l’histoire, médiatiques et politiques, existent pourtant (citons pour exemples Camille Aumont-Carnel ou encore Charlie Danger). Mais elles sont moins citées, moins reconnues comme autorités. Lorsque des figures féminines sont évoquées, elles sont souvent renvoyées à l’influence, au marketing, à l’esthétique ou au lifestyle.

Cette dissymétrie rappelle le phénomène des « oubliées du numérique » décrit par Isabelle Collet : les femmes ont contribué à l’histoire de l’informatique, mais leur rôle a été invisibilisé. Aujourd’hui, ces femmes participent aux médiations des savoirs en ligne et à l’enrichissement des cultures juvéniles, mais leur reconnaissance est inégale.


À lire aussi : Pourquoi les filles ont délaissé l’informatique


Or ces modèles comptent dans la construction des adolescentes : renvoyant à des hiérarchies symboliques, ils peuvent orienter la façon dont elles se projettent, ainsi que leurs sentiments de légitimité, en structurant la représentation de qui « sait », qui « explique », qui « fait autorité ».

Chez les filles, plus d’autocensure, moins de confiance en soi

Dans les nombreuses enquêtes menées auprès d’adolescents âgés de 13 à 17 ans, tous milieux sociaux confondus, il ressort que le sentiment de compétence informationnelle est fortement genré.

Lorsqu’on demande aux adolescentes et aux adolescents si elles ou ils ont « peur de prendre une information fausse pour une vraie », le constat est sans appel : les filles répondent à l’affirmative, là où les garçons apparaissent plus nuancés. Plus encore, lorsqu’on leur demande si cela leur est déjà arrivé de prendre une information fausse pour une vraie, les filles sont très majoritairement convaincues que oui, alors que les garçons envisagent de façon très minoritaire la possibilité d’avoir cru une fausse information.

Rien n’indique pourtant une supériorité cognitive masculine dans l’évaluation de l’information. Les études sur les compétences informationnelles montrent que la difficulté à distinguer l’information fiable de l’information trompeuse est largement partagée.

Le doute des filles n’est pas le signe d’une incompétence ; il est le reflet de mécanismes bien connus d’autocensure et de moindre confiance en soi des filles dans des domaines perçus comme techniques ou stratégiques. Il peut aussi être interprété comme une prudence épistémique. À l’inverse, la sur-confiance peut exposer à des biais. Mais cette dissymétrie alimente des prises de parole inégales et des dynamiques de légitimité différenciées.

Travailler le sentiment de compétence pour dépasser les assignations

Ces représentations sociales se prolongent dans les dispositifs éducatifs. Les émotions face à l’information – choc, peur, dégoût – sont plus aisément verbalisées par les filles. Les garçons sont moins sollicités sur leur ressenti face à des contenus violents, comme si la robustesse émotionnelle était attendue d’eux.

Dans les discours politiques et médiatiques, les filles apparaissent fréquemment comme un public à protéger des dangers du numérique, notamment des violences sexistes et sexuelles. Cette vulnérabilité est bien réelle, dans l’espace public hors ligne comme en ligne, comme le rappelle le rapport 2026 de l’Anses sur l’usage des réseaux sociaux numériques et la santé des adolescents.

Mais, protéger sans outiller, c’est maintenir dans une position de fragilité. Symétriquement, les garçons sont souvent perçus comme porteurs de comportements problématiques qu’il faudrait « canaliser », selon une logique d’essentialisation qui rappelle d’autres espaces sociaux.

Cette essentialisation pose question. Elle ne doit pas conduire à nier les vulnérabilités bien réelles des filles confrontées à des problématiques singulières, mais elle ne peut constituer l’horizon exclusif de l’action éducative.

« Tour de France de l’éducation aux médias et à l’information : les scolaires sensibilisés à Poitiers » (France 3 Nouvelle-Aquitaine).

L’éducation aux médias et à l’information (EMI) gagnerait à dépasser cette double assignation, d’abord en intégrant systématiquement des créatrices de contenus scientifiques et journalistiques dans les corpus scolaires comme dans les discussions en famille.

Pour travailler explicitement le sentiment de compétence, il s’agit d’inciter les jeunes à verbaliser les stratégies d’évaluation, en montrant qu’elles s’apprennent, qu’elles ne relèvent ni d’un « don » ni d’un tempérament. Et l’on peut interroger les émotions de toutes et tous face à l’information perçue comme violente ou anxiogène, en proposant des espaces de discussion sur le ressenti face à l’information.

L’enjeu est d’accompagner filles et garçons vers une autonomie critique joyeuse, faisant la part belle à l’expérimentation, au débat, à la production de l’information, et la compréhension des logiques économiques et politiques. Il s’agit que toutes et tous se perçoivent comme acteurs informationnels légitimes dans l’espace public.

Les pratiques informationnelles juvéniles ne sont ni futiles ni homogènes. Elles sont des lieux d’expérimentation, de sociabilité et de construction de soi. Les penser au prisme du genre ne vise pas à opposer mais à comprendre pour mieux accompagner.

The Conversation

Anne Cordier a reçu des financements de la Direction du Numérique pour l'Education, dans le cadre du projet GTnum EMILIE.

PDF
12 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓