16.02.2026 à 17:01
Faut-il encore faire des pesticides l’alpha et l’oméga de la protection des cultures ? Les exemples du Brésil et de la France
Texte intégral (2771 mots)
Si les pesticides ont longtemps assuré la protection des cultures, leurs effets délétères sont aujourd’hui largement documentés. Réduire cette dépendance est devenu une urgence sanitaire, environnementale et économique. Les stratégies de lutte contre les ravageurs intègrent aujourd’hui de nouvelles techniques innovantes. L’analyse de la situation en France et au Brésil livre un éclairage croisé sur cette question.
La protection des cultures est un enjeu majeur pour l’agriculture et pour la société au sens large. Elle permet de garantir une production suffisante en qualité et en quantité, tout en assurant des revenus à tous les acteurs des chaînes d’approvisionnement, des agriculteurs aux distributeurs.
Au cours des dernières décennies, la protection des cultures a reposé sur l’efficacité des pesticides de façon accrue. Dans le même temps, leurs effets négatifs sur la santé humaine, sur la qualité de l’eau, de l’air et sur la biodiversité sont de mieux en mieux documentés. Au plan économique, ces effets peuvent être considérés comme des coûts cachés pour la société. De plus, ces effets négatifs privent les agriculteurs de services écosystémiques précieux rendus par des sols en bonne santé.
À l’échelle mondiale, le recours aux pesticides peut également virer au casse-tête géopolitique, en fonction des pays où ils sont autorisés ou interdits. L’accord UE-Mercosur a récemment illustré les tensions que peuvent susciter des importations de produits traités avec des pesticides interdits dans les pays membres de l’Union européenne (UE), créant, de fait, des distorsions de concurrence entre les États.
Il apparaît donc urgent de façonner la protection des cultures de façon à alléger la dépendance des systèmes agricoles envers ces produits. Et si on adoptait un nouveau paradigme pour la protection des cultures, notamment inspiré par l’agroécologie et tenant davantage compte des nouveaux risques climatiques ? Des regards croisés sur la situation en France et au Brésil peuvent éclairer la question.
Mieux vaut prévenir que guérir
La lutte intégrée (ou protection intégrée) des cultures est un concept riche, établi depuis les années 1970. L’idée est de combiner des exigences écologiques, économiques et sanitaires.
Dans l’UE, la règle est de n’utiliser de produits chimiques phytopharmaceutiques qu’à la dose la plus faible possible (principes 5 et 6 du schéma ci-dessous) pour maintenir la présence des organismes nuisibles en dessous d’un seuil où les dommages ou pertes économiques deviennent inacceptables à court terme pour l’agriculteur. Pour limiter l’usage et l'impact de ces pesticides, il est donc essentiel d’enrichir la liste des alternatives aux pesticides (principe 4).
Cette approche implique qu’il est préférable d’agir en amont (principe 1) en mettant l’accent sur la prévention pour réduire au minimum la pression des maladies et des insectes. C’est une stratégie comparable à celle mobilisée en santé humaine, où il est recommandé d’avoir une hygiène de vie appropriée (sport, régime équilibré…) ou de se vacciner pour réduire le risque de maladies.
Cette stratégie de prophylaxie peut devenir active si, au cours de ses actions sur les cultures, l’agriculteur cherche à réduire le nombre de ravageurs. En diversifiant les moyens de lutte, cette stratégie permet également de limiter l’émergence de résistances chez les ravageurs. En effet, ces résistances apparaissent d’autant plus vite que les stratégies sont peu diversifiées.
L’utilisation de cultures de couverture, par exemple, est intéressante pour occuper l’espace au sol et éviter l’installation de mauvaises herbes. C’est d’autant plus pertinent dans les systèmes agricoles tropicaux, où la pression de sélection naturelle est plus élevée du fait des conditions de chaleur et d’humidité, et où ces résistances ont donc tendance à apparaître plus rapidement.
Associées à d’autres stratégies de gestion, les cultures de couverture sont donc un élément clé pour améliorer à la fois la qualité des sols, la productivité et la durabilité des systèmes agricoles.
À lire aussi : Les sols aussi émettent des gaz à effet de serre, et les pratiques agricoles font la différence
Microbiote végétal, paysages olfactifs… de nouveaux leviers
De nouvelles techniques innovantes ont vu le jour depuis la mise en place de ce paradigme.
L’une des plus connues s’appuie sur l’agroécologie et la diversification des cultures, et mobilise des services écosystémiques largement documentés par la recherche. Cela peut par exemple passer, au Brésil, par des rotations plus longues, des cultures en mélanges, ou encore par des cultures intermédiaires de maïs, sorgho, mil ou sésame pour optimiser la culture du soja.
La sélection variétale est un autre levier crucial pour améliorer la valeur agronomique des cultures. La recherche de résistances génétiques aux champignons, aux virus et, dans une moindre mesure, aux bactéries et aux insectes, a été – et est toujours au cœur – des programmes de sélection.
Demain, cette approche pourra bénéficier des progrès réalisés dans le domaine de l’édition génétique : il est ainsi envisageable de stimuler, chez l’espèce cultivée, des gènes de résistance actifs chez des espèces étroitement apparentées, ou d’en réactiver d’autres qui auraient été contournés pendant l’évolution. Cela pose évidemment de nouvelles questions (propriété intellectuelle, cadre éthique, etc.) à ne pas sous-estimer.
Au cours des dernières années, l’existence d'un microbiote végétal a aussi été mise en évidence sur les graines, les feuilles, les racines et même à l’intérieur des tissus végétaux. Ces microbiotes jouent un rôle clé dans la nutrition des plantes, en facilitant l’échange de nutriments avec le sol, et dans leur protection contre les bioagresseurs. Il s’agit d’une perspective intéressante pour développer des solutions de biocontrôle alternatives aux pesticides.
À lire aussi : Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?
Poursuivons avec les composés organiques volatils (COV) émis dans l’environnement, qui conditionnent le comportement des insectes (recherche alimentaire ou de partenaires sexuels, par exemple). Ces signaux olfactifs sont un nouvel axe de recherche pour lutter contre les ravageurs.
Cette stratégie a l’avantage de présenter peu d’effets indésirables, car les COV sont très spécifiques. Ils peuvent par exemple être utilisés pour induire une confusion sexuelle qui limite la reproduction d’une espèce particulière d’insectes, les attirer dans un piège voire les éliminer grâce à un gel contenant les COV et un insecticide qui sera dès lors utilisé en très faible quantité par rapport à une application classique.
À lire aussi : Protéger les cultures sans pesticides grâce au langage olfactif des plantes
Ces stratégies de prévention en amont doivent, bien sûr, être pensées à l’échelle du paysage et être coordonnées entre les acteurs d’une zone géographique. Elles peuvent enfin être combinées à un dépistage plus précis des potentielles proliférations. Grâce aux outils de surveillance et d’aide à la décision (principes 2 et 3), on peut ainsi adapter la solution curative à mobiliser le cas échéant.
Une telle transition requiert un niveau élevé de coordination entre tous les acteurs du système agricole. Et ceci à tous les niveaux, des agriculteurs aux chaînes d’approvisionnement. Actuellement, près de 80 % des mesures mises en œuvre dans les plans d’action nationaux ciblent directement les agriculteurs. Les politiques publiques pourraient, à cet égard, mieux répartir l’effort de transition. La protection des cultures n’est pas seulement une question pour les agriculteurs : c’est un bien commun pour la société au sens large.
À lire aussi : Pesticides : les alternatives existent, mais les acteurs sont-ils prêts à se remettre en cause ?
Ce que disent les chiffres au Brésil et en France
La comparaison entre le Brésil et la France, situés dans des climats différents et avec des contextes sociopolitiques différents, est, à cet égard, instructive.
En France, au cours des quinze dernières années, les produits utilisés en protection des cultures ont fortement évolué, sous le triple effet de la réglementation encadrant le retrait de substances actives, en particulier les cancérigènes, mutagènes, reprotoxiques (CMR), des politiques publiques (plans Écophyto notamment) et de l’innovation. On utilise désormais moins de CMR et davantage de produits utilisables en agriculture biologique et/ou basés sur le biocontrôle.
Au Brésil, les ventes de pesticides (hors produits autorisés en agriculture bio et pour le biocontrôle) s’élevaient encore à 755 400 tonnes en 2023 – dont près de 50 % de glyphosate, un chiffre en timide baisse de 5,6 % par rapport à 2022.
Or, la France utilise actuellement 2,9 kg de substances actives par hectare de surface ensemencée, contre 7,78 pour le Brésil. Ces différences s’expliquent en partie par les surfaces agricoles cultivées (hors prairies) : 14 millions d’hectares pour la France, contre 97 pour le Brésil. Il faut aussi tenir compte du fait que la plupart des terres cultivées au Brésil donnent lieu à deux cultures par an, ce qui est plus rare en France.
Toutefois, le secteur des « biointrants » (produits d’origine naturelle ou organismes vivants) progresse rapidement au Brésil, qui les utilise depuis les années 1960. Ce marché s’est établi plus tardivement en France mais progresse également rapidement. Les biointrants peuvent être utilisés en agriculture biologique ou, dans certains cas, combinés à des pesticides dans le cadre des programmes de lutte intégrée contre les ravageurs, que l’on a présentés plus haut.
À l’échelle mondiale, le marché des agents de biocontrôle et des biostimulants (intrants biosourcés permettant d’améliorer les productions végétales) était, en 2025, estimé à 11 milliards de dollars (9,2 milliards d’euros), dont 7 milliards (5,9 milliards d’euros) pour le biocontrôle, avec des taux de croissance annuels estimés de 10,5 à 15,6 % (selon les secteurs) jusqu’en 2035. En 2035, ce marché pourrait atteindre environ 41 milliards de dollars (34,5 milliards d’euros), dont 30 milliards (25,2 milliards d’euros) pour le biocontrôle.
La mobilisation de la prophylaxie et les nouvelles options de biocontrôle seront-elles de nature à remettre en cause l’omniprésence des pesticides ?
Cet article est publié dans le cadre de la Conférence FARM 2026 – Repenser la protection des cultures : agir collectivement pour le vivant, qui se tient le 17 février 2026 à la Cité internationale universitaire de Paris et dont The Conversation France est partenaire.
Christian Huyghe a reçu des financements de l'ANR et de l'Union européenne (H2020, Life-PLP, COST action).
Decio Karam est membre de Association Brésilienne du Maïs et du Sorgho, ; Conseil Scientifique de l’Agriculture Durable (CCAS)
16.02.2026 à 17:00
AlphaGenome, une nouvelle avancée en intelligence artificielle pour comprendre les effets des mutations génétiques
Texte intégral (1434 mots)

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.
Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.
AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.
Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.
AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.
À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle
Pourquoi cette avancée est importante
L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.
Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.
Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.
Quelles sont les suites de ces travaux ?
Plusieurs limitations tempèrent néanmoins l’enthousiasme.
Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.
Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.
De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.
Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.
Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.
Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?
Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.
Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.
16.02.2026 à 16:59
Peut-on décentraliser sans repenser la carte communale ?
Texte intégral (2178 mots)

La France compte un peu moins de 35 000 communes, auxquelles la décentralisation a transféré de nombreuses compétences. Cet émiettement communal est un impensé des réformes territoriales, à rebours des trajectoires européennes. En évitant de trancher la question de la carte communale, la décentralisation n’a-t-elle pas atteint ses propres limites ?
La décentralisation fait débat autour de deux questions. La première porte sur la clarification des rôles des différents échelons de collectivités. La seconde porte sur un approfondissement de la décentralisation – soit plus de transferts de compétences de l’État en direction des élus locaux. Les projets annoncés par le gouvernement Lecornu s’inscrivent dans cette perspective en promettant des transferts significatifs en matière de logement et pour quelques secteurs de l’action sociale. Mais peut-on encore décentraliser sans questionner la capacité des collectivités à gérer de nouvelles responsabilités ?
La France, hyperdécentralisée ?
Cet affichage ignore une réalité fondamentale : la France est sans doute l’un des pays au monde les plus décentralisés. On entend par là qu’elle est un des seuls pays à avoir fait le choix de décentraliser principalement vers le niveau le plus bas et le plus nombreux (la commune – on en dénombrait 34 875 au 1er janvier 2025) et non vers les échelons intermédiaires (régions ou départements).
Rappelons qu’aujourd’hui la commune est le seul niveau territorial à disposer d’une clause générale de compétence qui en fait un véritable « État en modèle réduit ». Le maire y représente l’État, incarne le pouvoir exécutif, préside l’assemblée « législative » locale (le conseil municipal) et dispose d’une capacité d’action généraliste.
Comment alors prétendre à l’efficacité, lorsqu’on confie les rênes de l’action publique à 35 000 micro-États ? Plus des deux tiers des communes françaises ont moins de 1 000 habitants, et disposent d’un budget annuel inférieur à un million d’euros. Ces milliers de communes sont incapables de produire de l’action publique à hauteur des enjeux. Ce phénomène redouble par l’obligation des échelons intermédiaires à prendre acte de cet émiettement en procédant au saupoudrage de leurs propres moyens.
Dans la plupart des autres pays européens, la décentralisation a été accompagnée par une refonte de la carte des communes afin d’en réduire le nombre et d’en augmenter la taille moyenne. La France n’a pas fait ce choix, mis en œuvre ailleurs dans les années 1960 et 1970 : on a décentralisé à périmètre constant (les communes, les départements et les régions).
Cette sanctuarisation de l’émiettement communal ne peut se comprendre qu’en regard de l’histoire longue de la France et du poids de l’État. Pour que ce dernier soit accepté par la population, il fallait préserver un équivalent local, les 36 000 communes issues des paroisses médiévales.
Ainsi s’est installée, depuis la IIIe République, une forme d’équilibre entre un pouvoir national fort et un pouvoir local du même type. Toutefois, pour garantir la pérennité du modèle jacobin français, il fallait que ces communes soient fortes localement, mais « dépendantes » de l’État, donc nombreuses et morcelées. Cela constituait en outre un message à la France rurale tout en limitant le pouvoir des villes.
On comprend dès lors que la décentralisation à la française constitue un gouffre financier, décrié pour sa faible efficacité. Mais le coût de la décentralisation tient-il aux doublons entre échelons, comme on l’entend le plus souvent, ou à cet émiettement ?
L’intercommunalité : une réponse à l’émiettement communal ?
On nous rétorquera que dès les années soixante, le législateur français a tenté d’adopter une voie spécifique pour rendre gérable le niveau local sans pour autant toucher à la carte des communes.
Il s’agit de la création des intercommunalités (communautés urbaines en 1966 puis communautés de communes et d’agglomération en 1999). Ce modèle original a pour le coup inspiré certains de nos voisins européens (Autriche, Finlande ou Italie par exemple).
L’intercommunalité repose sur deux principes : d’une part, l’élection indirecte des conseillers communautaires au second degré, au travers de leur fléchage au sein de chaque conseil municipal. D’autre part, la dissociation tendancielle entre l’instance politique qui demeure la commune et la mise en œuvre des politiques publiques, qui repose sur l’intercommunalité, et monte progressivement en puissance au travers du transfert de compétences. Cet agencement, certes un peu complexe, ajoutant une couche au millefeuille, a offert pendant une vingtaine d’années une perspective crédible de modernisation de l’organisation territoriale française, contournant prudemment la refonte de la carte communale. Ce n’est plus le cas aujourd’hui.
En 2015, la loi Notre a eu pour ambition de parachever ce processus. Est d’abord adopté le principe d’une couverture exhaustive du territoire national par des établissements de coopération intercommunale, rendant cette dynamique, jusqu’alors volontaire, obligatoire. Cette loi incite ensuite fortement au regroupement de ces intercommunalités afin de tendre vers un seuil de viabilité estimé à 10 000 habitants. On a ainsi réduit le nombre d’intercommunalités de moitié entre 2009 et 2025 (de 2 601 à 1 254), chacune de ces intercommunalités regroupant en moyenne 28 communes, ce nombre pouvant atteindre 158 pour la plus grande intercommunalité française, celle du Pays basque.
Une modernisation à l’arrêt ?
Ce parachèvement a d’une certaine manière cassé la dynamique intercommunale et conduit à remettre en question cette modernisation.
Les intercommunalités, systématisées et agrandies, font maintenant l’objet d’un procès en éloignement et perte de responsabilité de la part des maires. Bien qu’ils constituent eux-mêmes l’exécutif de ces intercommunalités, ils en décrient la gouvernance et le mode de prise de décision collective : chaque commune, quelle que soit sa taille, disposant a minima d’un siège, le processus décisionnel apparaît à la fois lointain et faiblement stratégique. Lorsqu’il faut décider à plusieurs dizaines de maires, la logique de saupoudrage tend à prévaloir. Le transfert de la compétence « gestion des milieux aquatiques et prévention des inondations » (Gemapi) cristallise ce procès depuis dix ans. Là où les communes organisaient la gestion de l’eau et de l’assainissement selon des coopérations « à la carte », la loi les oblige à tout gérer au sein de ces grandes intercommunalités.
Plus largement, la crise des gilets jaunes (2018) est apparue révélatrice d’une demande de proximité de la part de la population qui va à l’encontre de la montée en puissance des intercommunalités. Celle-ci marque donc aujourd’hui un coup d’arrêt. Cela s’exprime à la fois au niveau national, où la position « communaliste » progresse parmi les groupes politiques, entre communistes, insoumis et extrême droite. Le président de la République lui-même prône le retour au binôme historique maire/préfet de la IIIe République. Seuls les socialistes, le centre et la droite modérée défendent encore du bout des lèvres la perspective intercommunale. De la même manière, au niveau local, les intercommunalités se heurtent à ce repli communaliste et voient leur montée en puissance contrée par la résistance des élus municipaux.
C’est donc la voie retenue en France, depuis un demi-siècle, pour moderniser le pouvoir local qui paraît aujourd’hui compromise. Si un retour en arrière n’est pas envisageable, la perspective implicite des modernisateurs, c’est-à-dire l’absorption progressive des communes dans les intercommunalités n’est plus à l’ordre du jour. On en veut pour preuve la disparition de l’agenda politique de l’hypothèse d’une élection intercommunale au suffrage universel direct, pourtant indiquée dans la loi en 2014.
Le repli communaliste : à quelles conditions ?
Ne pourrait-on pas alors imaginer une voie intermédiaire entre « l’intercommunalisation » et la refonte de la carte communale, en visant la réduction de l’écart démographique et politique entre ces deux échelons ? On fait ici référence à l’expérience d’un territoire de l’ouest de la France, les Mauges, dans le Maine-et-Loire où 64 communes (dont une vingtaine de moins de 1 000 habitants) ont – de façon volontaire – fusionné en six communes nouvelles, toutes de taille supérieure à 10 000 habitants, constituant elles-mêmes une communauté d’agglomération de 120 000 habitants. Cette configuration présente trois intérêts : elle rapproche les deux niveaux ; elle accroît la gouvernabilité de l’intercommunalité (décider à six maires) ; elle garantit, grâce à leur taille, la capacité à agir des communes nouvelles, tout en maintenant une certaine proximité.
En incitant vigoureusement au regroupement des petites communes (par exemple, inférieures à moins de 1 000 habitants), il serait à la fois possible de redonner du sens à ce niveau de proximité plébiscité par les Français, tout en relançant l’échelon intercommunal, seul à même d’agir efficacement sur les questions de mobilité, d’environnement ou de développement économique.
Clarification de la spécialisation des compétences entre échelons et décentralisation privilégiant une myriade de communes : les deux principes retenus en France depuis un demi-siècle ont-ils encore du sens ? N’est-il pas temps d’en tirer les leçons, comparativement aux autres choix opérés en Europe ? Pourra-t-on longtemps encore faire l’économie d’un choix clair, d’une forme de hiérarchisation autour des régions et, simultanément, d’une refonte de la carte communale ?
Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.