LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

17.02.2026 à 17:07

Les fusions de communes tiennent-elles leurs promesses  ?

Gabriel Bideau, Géographe, Université Paris Cité

Dix ans après les premiers regroupements, on peut faire un premier bilan de la politique des « communes nouvelles » , poussée par des acteurs étatiques et locaux.
Texte intégral (2401 mots)
L’entrée d’Épinay-le-Comte, membre de la commune nouvelle de Passais-Villages, formée en 2016 de la fusion de trois communes de l’Orne, en Normandie. Gabriel Bideau, Fourni par l'auteur

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.


L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.

Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.

Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.

Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »

Verdict : Plutôt faux

La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.

Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.

En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.

Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).

Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».

Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes

Un graphique montrant la proportion de communes fusionnantes comparée à la proportion des communes inchangées, par tranches de population
Ce graphique illustre la proportion de communes fusionnantes (en rouge) comparée à la proportion de communes inchangées (en bleu), par tranche de population. On peut voir qu’il n’y a pas de surreprésentation des petites communes parmi les communes fusionnantes, puisqu’aucune différence significative entre leur proportion parmi les communes fusionnantes et parmi les communes inchangées n’existe. Seule exception : les communes entre 200 et 500 habitants, légèrement surreprésentées parmi les communes fusionnantes (32 %, contre 29 % des communes inchangées). Fourni par l'auteur

Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.

Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »

Verdict : C’est plus compliqué

François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.

Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.

Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »

Verdict : Plutôt faux

Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.

Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).

Un processus mené par le haut, qui semble favoriser l’abstention

Deux derniers points peuvent être relevés.

Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »

Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.

Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.

Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.

Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !

Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.

The Conversation

Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 17:06

La loi de Moore ayant atteint ses limites, que nous réserve l’avenir de l’informatique ?

Domenico Vicinanza, Associate Professor of Intelligent Systems and Data Science, Anglia Ruskin University

Alors que la loi de Moore ne dicte plus le rythme des progrès, les chercheurs explorent des solutions variées : empilement de composants, coprocesseurs spécialisés et technologies quantiques ou photoniques.
Texte intégral (1345 mots)
Pendant près d’un demi-siècle, le nombre de transistors sur une puce a doublé approximativement tous les deux ans. Sax/Shutterstock

Après un demi-siècle de gains réguliers en puissance de calcul, l’informatique entre dans une nouvelle ère. La miniaturisation ne suffit plus : les progrès dépendent désormais de l’architecture, de l’énergie et de logiciels optimisés.


Pendant un demi-siècle, l’informatique a progressé de manière rassurante et prévisible. Les transistors – ces dispositifs qui servent à contrôler le passage des signaux électriques sur une puce informatique – sont devenus de plus en plus petits, ce qui permet d’en amasser davantage sur une seule puce. En conséquence, les puces ont gagné en rapidité, et la société a intégré ces avancées presque sans s’en rendre compte.

Ces puces plus rapides ont offert une puissance de calcul accrue en permettant aux appareils d’exécuter les tâches plus efficacement. On a ainsi vu les simulations scientifiques s’améliorer, les prévisions météorologiques gagner en précision, les images devenir plus réalistes, puis les systèmes d’apprentissage automatique émerger et se développer. Tout se passait comme si la puissance de calcul obéissait à une loi naturelle.

La fin des certitudes

Ce phénomène a pris le nom de loi de Moore, d’après l’homme d’affaires et scientifique Gordon Moore. Elle résumait l’observation empirique selon laquelle le nombre de transistors sur une puce doublait approximativement tous les deux ans. Cela permettait aussi de réduire la taille des appareils et alimentait en conséquence la miniaturisation.

Ce sentiment de certitude et de prévisibilité a désormais disparu, non pas parce que l’innovation se serait arrêtée, mais parce que les hypothèses physiques qui la soutenaient autrefois ne sont plus valables.

Qu’est-ce qui remplace alors l’ancien modèle d’augmentation automatique des performances ? La réponse ne tient pas à une seule avancée technologique, mais à plusieurs stratégies qui se superposent.

De nouvelles approches

L’une d’elles repose sur de nouveaux matériaux et de nouvelles architectures de transistors. Les ingénieurs améliorent encore leur conception afin de limiter les pertes d’énergie et les fuites électriques indésirables. Ces évolutions apportent des gains plus modestes et plus progressifs qu’autrefois, mais elles permettent de mieux maîtriser la consommation énergétique.

Une autre approche consiste à modifier l’organisation physique des puces. Au lieu de disposer tous les composants sur une surface plane unique, les puces modernes empilent de plus en plus les éléments les uns sur les autres ou les rapprochent davantage. Cela réduit la distance que doivent parcourir les données, ce qui permet de gagner à la fois en temps et en énergie.

Le changement le plus important est sans doute la spécialisation. Au lieu de confier toutes les tâches à un unique processeur polyvalent, les systèmes modernes combinent différents types de processeurs. Les unités de traitement traditionnelles, ou CPU, assurent le contrôle et la prise de décision. Les processeurs graphiques sont des unités de calcul très puissantes, conçues à l’origine pour répondre aux exigences du rendu graphique dans les jeux vidéo et d’autres usages. Les accélérateurs d’IA (du matériel spécialisé qui accélère les tâches liées à l’intelligence artificielle) se concentrent sur l’exécution en parallèle d’un très grand nombre de calculs simples. Les performances dépendent désormais de la manière dont ces composants fonctionnent ensemble, plutôt que de la vitesse de chacun pris isolément.

Des technologies expérimentales

Parallèlement à ces évolutions, les chercheurs explorent des technologies plus expérimentales, notamment les processeurs quantiques (qui exploitent les principes de la physique quantique) et les processeurs photoniques, qui utilisent la lumière plutôt que l’électricité.

Il ne s’agit pas d’ordinateurs polyvalents, et ils ont peu de chances de remplacer les machines classiques. Leur intérêt réside dans des domaines très spécifiques, comme certains problèmes d’optimisation ou de simulation, pour lesquels les ordinateurs traditionnels peinent à explorer efficacement un grand nombre de solutions possibles. En pratique, ces technologies doivent être envisagées comme des coprocesseurs spécialisés, utilisés de manière ciblée et en complément des systèmes traditionnels.

Pour la plupart des usages informatiques du quotidien, les progrès des processeurs conventionnels, des systèmes de mémoire et de la conception logicielle resteront bien plus déterminants que ces approches expérimentales.

Pour les utilisateurs, l’ère post-Moore ne signifie pas que les ordinateurs cesseront de s’améliorer. Cela veut juste dire que les progrès se manifesteront de manière plus inégale et plus dépendante des usages. Certaines applications — comme les outils fondés sur l’IA, le diagnostic, la navigation ou la modélisation complexe — pourraient connaître de vraies avancées, tandis que les performances généralistes progresseront plus lentement.

Nouvelles technologies

Lors de la conférence Supercomputing SC25 à Saint-Louis, plusieurs systèmes hybrides associant CPU (processeurs), GPU (processeurs graphiques) et technologies émergentes — comme les processeurs quantiques ou photoniques — ont été présentés comme des prolongements concrets de l’informatique classique. Pour l’immense majorité des usages quotidiens, ce sont toutefois les progrès des processeurs traditionnels, des mémoires et des logiciels qui continueront d’apporter les gains les plus significatifs.

On note un intérêt croissant pour les dispositifs quantiques et photoniques comme coprocesseurs, et non comme remplaçants. Ils sont particulièrement utiles pour des problèmes très spécifiques, comme l’optimisation ou le routage complexes, où les machines classiques seules peinent à trouver des solutions efficaces.

Dans ce rôle d’appoint, ils offrent un moyen crédible d’allier la fiabilité de l’informatique classique à de nouvelles techniques de calcul, élargissant ainsi les capacités des systèmes.

Un nouveau récit

La suite n’est pas une histoire de déclin, mais un processus de transformation et d’évolution permanentes. Les progrès en informatique reposent désormais sur la spécialisation des architectures, une gestion rigoureuse de l’énergie et des logiciels conçus en tenant pleinement compte des contraintes matérielles. Le risque est de confondre complexité et inéluctabilité, ou narratifs marketing et problèmes réellement résolus.

L’ère post-Moore impose une relation plus réaliste avec l’informatique : la performance n’est plus un acquis automatique lié à la miniaturisation des transistors, mais un résultat qu’il faut concevoir, justifier et payer – en énergie, en complexité et en compromis.

The Conversation

Domenico Vicinanza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 17:05

Too little, too concentrated: why AI start-up funding in Africa needs rethinking

Claire Zanuso, PhD, économiste du développement, chargée de recherche et d'évaluation / Development economist, research and evaluation officer, Agence Française de Développement (AFD)

In Africa, four countries cover the lion’s share of IA-related investments. But a few other countries on the continent are displaying undeniable potential in the field.
Texte intégral (3381 mots)

One year after the AI Summit in Paris, the international community will meet again this week in New Delhi for the Global Summit on Artificial Intelligence, whose objective will notably be to support the diffusion of AI uses in developing countries. In Africa, AI and Tech investment remains concentrated in the “Big Four” – South Africa, Egypt, Kenya and Nigeria – at the expense of other countries across the continent. This analysis explores the causes of this imbalance and the levers that could be used to better direct capital.

Between 2015 and 2022, investment in African start-ups experienced unprecedented growth: the number of start-ups receiving funding increased more than sevenfold, driven by the expansion of mobile technologies, fintech and a massive inflow of international capital. However, from 2022 onwards, tighter economic conditions led to a “funding squeeze” (a reduction in venture capital investment) that was more severe for African start-ups than in other regions of the world. This trend further reinforced the concentration of capital in the countries with the most developed start-up ecosystems, namely South Africa, Egypt, Kenya and Nigeria.

There is, however, a strong case for ensuring that these investments are more evenly distributed across the continent. Beyond stimulating economic activity, the technological innovations developed by these start-ups represent a significant lever for development, as they offer solutions tailored to local contexts: targeted financial solutions, improved agricultural productivity, strengthened health and education systems, and responses to priority climate challenges, etc.

Trends in equity and debt financing granted to technology start-ups in Africa between 2019 and 2024. Partech, 2024 Africa Tech Venture Capital

Concentration of investment in the Big Four

In the early 2020s, the expression “Big Four” emerged to describe Africa’s main tech markets: South Africa, Egypt, Kenya and Nigeria. The notion, likely inspired by the term Big Tech, suggests the existence of “champion countries” in the technology sector.

In 2024, the Big Four captured 67% of equity tech funding (investments made in exchange for shares in technology companies). In detail, the shares captured by each country were distributed as follows: around 24% for Kenya, 20% for South Africa, and 13.5% each for Egypt and Nigeria.

This funding cluster is not only geographical; it also has a strong sectoral dimension. Capital is largely directed toward sectors perceived as less risky, such as digital finance or “fintech”, often at the expense of areas such as edtech and cleantech – that is, technologies dedicated to education and to environmental solutions, respectively.

An estimated 60%-70% of funds raised in Africa come from international investors, particularly for funding rounds over 10-20 million dollars. These investments, often concentrated in more structured markets, represent the most visible transactions, but also those considered the least risky.

Emerging peripheral ecosystems and potential that remains insufficiently converted into investment

While the Big Four concentrate the majority of investment, several African countries now demonstrate proven potential in AI and a pool of promising start-ups, without capturing investment volumes commensurate with that potential.

Countries such as Ghana, Morocco, Senegal, Tunisia and Rwanda form an emerging group whose members have favourable AI fundamentals but remain underfunded. This gap is all the more striking given that Ghana, Morocco and Tunisia, all of which have dynamic start-up pools, together account for around 17% of African technology companies outside the Big Four. At the same time, local financial structures struggle to meet these funding needs in geographies perceived as peripheral.

This difficulty in attracting investment can be explained in particular by institutional and business ecosystems that still need strengthening, as the performance of technology companies relies on the existence of structured entrepreneurial ecosystems that enable access to knowledge, skilled labour, and support mechanisms (accelerators, incubators and investors).

Finally, it is important to recall that these weaknesses are part of a broader context: in 2020, the entire African continent accounted for only 0.4% of global venture capital flows and currently represents just 2.5% of the global AI market. Emerging countries outside the Big Four are therefore mechanically disadvantaged in a competition that is already highly concentrated.

Distribution of venture capital (equity) investment in African technology start-ups by country. Partech, 2024 Africa Tech Venture Capital

Steering investment to prepare countries for AI

To attract capital toward AI start-ups, a country must itself be ready for AI. The adoption of AI at the national level does not depend solely on technological factors. The AI Investment Potential Index (AIIPI), a research initiative, highlights that this adoption also relies on economic, political and social factors. As a result, increasing a country’s AI potential requires not only strengthening energy and connectivity infrastructure, but also improving governance standards, public sector effectiveness and human capital.

Priority actions vary depending on countries’ level of advancement in AI. In more advanced countries, such as South Africa or Morocco, the challenge is more about supporting research, optimising AI applications and attracting strategic investment. In countries with more moderate scores, priorities tend to focus on strengthening connectivity infrastructure, human capital and regulatory frameworks.

The platform aipotentialindex.org enables, among other things, to visualise the index’s results at a global level and to identify the areas in which countries can invest to increase their AI investment potential (research, government effectiveness, connectivity, human capital, AI strategies, etc.). The AIIPI helps investors not only identify countries that are already advanced in AI, but also those with untapped potential. For public decision-makers and development actors, it provides a framework for prioritising reforms and investment.

Visualisation of AI investment potential in Africa: the darker the colour, the higher the potential. aipotentialindex.org
Country Profile tool applied to Ghana. Ghana shows strong potential for AI investment. Start-ups such as Ghana Liquify, supported by Digital Africa, which facilitates bill payments for SMEs, illustrate the country’s entrepreneurial dynamism. aipotentialindex.org

Sovereign funds and instruments dedicated to new technologies

Once a country’s AI investment strategy has been defined, the question of AI financing instruments arises. At the continental level, several instruments dedicated to technology and AI are emerging. Development finance institutions, such as the African Development Bank or the West African Development Bank, are launching initiatives aimed at supporting the growth of the continent’s digital economy.

At national level, African Sovereign Wealth Funds (SWFs) provide an additional channel to support AI and start-up financing across the continent. These funds, such as the Mohammed VI Fund in Morocco or the Pula Fund in Botswana, mobilise public savings for long-term economic development and work in partnership with development banks.

Partnerships as powerful levers for start-up financing

Financing digital and AI infrastructure alone is not enough to build start-up ecosystems capable of driving economic growth. International public-private partnerships also play a significant role. The Choose Africa 2 initiative, led by AFD and Bpifrance, aims to address financing constraints facing entrepreneurship across the continent, particularly at the earliest stages. Support mechanisms, like Digital Africa, bringing together public actors and local partners enable small-ticket investments in early-stage “Tech for Good” start-ups, whose technologies generate strategic, social and environmental impact.

While these mechanisms are not enough on their own to correct investment imbalances, they can nevertheless help broaden access to financing beyond the ecosystems that are traditionally best resourced.

Central political, strategic and legal leadership

Financial investment alone is not sufficient and must be supported by strong political ambition. Legislative and strategic frameworks put in place at national and continental levels are key structural levers for the growth of digital start-ups in Africa.

On the one hand, strategies led by the African Union, including the Digital Transformation Strategy for Africa, the Continental Artificial Intelligence Strategy and the African Digital Compact, provide roadmaps enabling states to accelerate digital transformation. There are also national-level instruments, such as Tunisia’s “Start-up Act” law or national AI strategies, such as the one published by Ghana, which sets out the country’s ambition to become Africa’s “AI Hub.”

Finally, a major political commitment was made at last April’s Global AI Summit in Kigali, where 52 African countries announced the creation of a 60-billion-dollar African AI Fund combining public, private and philanthropic capital. This initiative illustrates a strategic ambition across the continent: positioning Africa around these emerging technological challenges. However, these AI-focused funds may face governance and financial structuring challenges. There remains a risk that they could reproduce asymmetries already observed in sovereign wealth funds if transparency mechanisms are not put in place. Their impact will, therefore, depend on the establishment of standards and governance tools adapted to emerging technological challenges.

These frameworks create the initial conditions needed for the emergence of local AI solutions and provide a structuring strategic framework. Their impact on investor confidence will, however, depend on how effectively they are aligned with appropriate financing mechanisms and strengthened local capacities.


This article was co-written with Anastesia Taieb, Innovation Officer at AFD, and Emma Pericard, Digital Africa’s representative to the EU.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Claire Zanuso ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 14:50

Developing lab-grown human cartilage… using apples!

Karim Boumédiene, Professeur de biochimie et biologie moléculaire, ingénierie tissulaire, Université de Caen Normandie

Some medical conditions involve cartilage tissue loss, which is why skin grafting is vital. Lab-grown cartilage could be the way forward for human tissue repair and reducing animal testing.
Texte intégral (1109 mots)
Astonishing but true: apples are one of the latest plant-based materials tissue engineers are experimenting with to create lab-grown human cartilage. Priscilla Du Preez/Unsplash, CC BY

A research lab at the University of Caen Normandy (France) has succeeded in making cartilage using decellularized apples.

The Bioconnect laboratory at the university, which I head, has just published a scientific paper in the Journal of Biological Engineering. In this original study, we used apples that had been “decellularized” (their cells removed) as a material, combined with human stem cells, to rebuild cartilage outside of the body, in laboratory Petri dishes.

The process is called tissue engineering. Its goal is to rebuild human tissue in the laboratory so it can be used at a later date as grafts to repair damaged parts of the body. The idea is to place a patient’s cells onto a supporting material and grow them in the right conditions so they can form tissues such as bone, muscle, or cartilage.

Many diseases and injuries damage or destroy tissues, which then require reconstruction. Among these are degenerative diseases where tissue slowly wither away over time, such as osteoarthritis (cartilage damage) or osteoporosis (bone loss). There is therefore a real need for tissue grafts.

However, finding healthy tissues for transplant is difficult because donors are rare and compatibility is a major issue. Tissue engineering offers an effective solution to this problem. Using the patient’s own cells when possible also avoids the risk of immune rejection.

Apples provide excellent scaffolding

Although scientists can easily grow cells in the lab, these cells do not naturally organise themselves into full and functional tissues. That is why they need a support material. These materials act like scaffolding, giving cells a structure so they can grow in three dimensions and form real tissue.

One approach is to use human tissues or organs that have been decellularized, leaving only their structure. New healthy cells can then be added. However, this method is limited by the lack of available human tissues. For about ten years now, plant-based tissues have also been decellularized and used as supports.

Several studies (including those conducted in our lab), have already explored different materials. But this work is the first in the world to rebuild cartilage using a plant-based support. The idea came from a Canadian study showing that decellularized apples are compatible with mammalian cells 2. Since cartilage is our specialty, we decided to apply this method.

Plant-based materials offer many advantages: they are widely available, very cheap, already shown to be compatible with living organisms, and easy to shape to match the form of the tissue to be repaired. This study is only a first step. More tests are needed, first in animals and then in humans, to understand how these tissues behave over time and how beneficial they are for patients.

Multiple application possibilities

Potential applications include joint cartilage repair (after injury or osteoarthritis), reconstruction of nasal cartilage (after trauma or cancer), and even ear cartilage. Overall, this research opens new possibilities in tissue engineering, both for reconstructive surgery and for reducing animal experimentation. Indeed, lab-grown tissues can also be used to better model disease and test treatments in so-called organoid models, which can reduce or even replace animal testing.

Finally, because plants are incredibly diverse, there is still a wealth of potential to explore. Future research will aim to identify which plants, or which parts of plants, are best suited for rebuilding specific human tissues. Other plants, such as celery, are already being studied.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Karim Boumédiene ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.02.2026 à 12:40

En France, les personnes âgées consomment trop de benzodiazépines, et en méconnaissent les risques

Sylvain Pichetti, Économiste de la santé - directeur de recherche, Institut de recherche et documentation en économie de la santé (Irdes)

Anne Penneau, Maîtresse de recherche, Institut de recherche et documentation en économie de la santé (Irdes)

Marc Perronnin, Maître de conférence, Institut de recherche et documentation en économie de la santé (Irdes)

Que ce soit pour apaiser l’anxiété ou pour mieux dormir, les seniors se voient trop souvent prescrire de benzodiazépines. Or, ces médicaments ne sont pas sans risques.
Texte intégral (2542 mots)

La France est l’un des pays d’Europe où la consommation de benzodiazépines par les personnes âgées reste la plus élevée. Pour mieux dormir ou calmer l’anxiété, nombre d’entre elles s’en voient prescrire pendant des mois, voire des années, souvent sans que la mesure des risques associés à ces médicaments ne soit prise.

––––––––––-

En France, la prescription de benzodiazépines chez les personnes âgées est particulièrement élevée par rapport à celle observée dans les autres pays de l’OCDE. Ces médicaments voient pourtant leur efficacité diminuer avec le temps et exposent les seniors à de nombreux effets indésirables : risque accru de chutes et de fractures, troubles de la mémoire et des fonctions cognitives, ou encore dépendance.

Face à ces risques, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) a lancé en avril 2025 une nouvelle campagne d’information visant à promouvoir le bon usage des benzodiazépines et à réduire leur consommation.

Trois études récentes menées par l’Institut de recherche et documentation en économie de la santé (Irdes) permettent de caractériser l’évolution de la consommation en France au cours des dernières années, d’identifier les situations les plus à risque de prescriptions potentiellement inappropriées et de mieux comprendre les leviers susceptibles de réduire ces prescriptions chez les seniors.

Voici ce qu’il faut en retenir.

Une consommation en baisse, mais toujours élevée en France

En France, la consommation de benzodiazépines chez les personnes âgées diminue, mais reste nettement plus élevée que dans la plupart des pays européens. Nos travaux révèlent qu’en 2022, 13 % des personnes âgées de 65 ans et plus ont reçu au moins une prescription potentiellement inappropriée de benzodiazépines au cours de l’année, soit une baisse de quatre points par rapport à 2012. Cette diminution s’inscrit dans une tendance observée dans l’ensemble des pays européens sur la même période.

Plusieurs politiques publiques ont contribué à cette évolution, notamment le ciblage des prescriptions potentiellement inappropriées de benzodiazépines dans la rémunération sur objectifs de santé publique (depuis 2012), la baisse du remboursement de certaines molécules et la diffusion de recommandations de bonnes pratiques par la Haute Autorité de santé (HAS), en particulier pour les troubles de l’anxiété et du sommeil. La HAS précise par ailleurs qu’en cas de prescription, la planification d’emblée de la stratégie de déprescription s’avère nécessaire afin que le traitement ne dépasse pas trois mois.

Malgré ces efforts, la France reste un pays à forte consommation : les prescriptions potentiellement inappropriées y sont environ deux fois plus fréquentes qu’en Suède et six fois plus qu’au Danemark.

Dans notre pays, la consommation de benzodiazépines varie fortement selon les territoires. Les taux de prescription les plus élevés, autour de 23 %, sont observés dans certaines régions comme la Bretagne, les Hauts-de-France, le Limousin, la Champagne-Ardenne, la Gironde ou le littoral sud, alors que la moyenne des zones de faible prescription s’établit autour de 14 %.

L’analyse des données indique que les bassins de vie dans lesquels les personnes âgées appartiennent plus souvent à la catégorie sociale des employés ou des ouvriers ont des taux standardisés de prescriptions potentiellement inappropriées de benzodiazépines plus importants. En outre, l’offre de soins, accessible dans les bassins de vie, joue aussi un rôle. Une meilleure accessibilité aux médecins généralistes, principaux prescripteurs, est associée à plus de prescriptions potentiellement inappropriées.

Deux types de prescriptions inappropriées chez les personnes âgées

Chez les personnes âgées, deux configurations de prescriptions sont considérées comme potentiellement inappropriées.

La première renvoie à la prescription de benzodiazépines à longue durée d’action. Ces médicaments qui mettent plus de temps à être éliminés par l’organisme sont très fortement déconseillés pour les personnes âgées de 65 ans et plus. En effet, avec l’âge, les fonctions hépatiques et rénales diminuent, ce qui allonge le temps d’élimination des médicaments. En raison de la sédation, de la faiblesse musculaire, de la confusion, les benzodiazépines augmentent le risque de chutes, qui sont une cause majeure de fractures du col du fémur et d’hospitalisation chez les personnes âgées.

La deuxième configuration porte sur la durée de prescription qui ne doit pas dépasser trois mois chez le sujet âgé, selon les recommandations nationales (Haute Autorité de santé) et internationales (American Society of Addiction Medicine).

Le rôle central du médecin généraliste dans la prescription

En France, les médecins généralistes sont à l’origine de plus de 80 % des prescriptions de benzodiazépines. Ils connaissent les risques chez les patients âgés grâce aux recommandations diffusées par la Haute Autorité de santé. Pourtant, la pratique de prescription varie beaucoup d’un médecin à l’autre.

En tenant compte des différences de sexe, d’âge, de mortalité et de pathologies de leurs patients, certains médecins généralistes affichent seulement 10 % de prescriptions potentiellement inappropriées de benzodiazépines en 2015, tandis qu’elles dépassent 30 % chez d’autres confrères.

Les médecins qui ont les taux de prescription les plus élevés et qui conservent ce niveau dans le temps (entre 2015 et 2022) sont plus âgés et plus souvent des hommes. Au contraire, les médecins femmes réduisent plus souvent leurs prescriptions, quel que soit leur niveau initial de prescription.

Concernant la différence de prescription selon l’âge des médecins, l’argument avancé est que la proximité avec l’âge des études explique un meilleur respect des recommandations de bonne pratique, et donc une meilleure prescription. Les plus jeunes médecins prescrivent donc mieux que les médecins plus âgés. Pour la différence liée aux genres, les femmes médecins semblent accorder une attention particulière au respect des recommandations de bonnes pratiques.

Un point à souligner est que certaines populations vulnérables, comme les personnes atteintes de troubles psychiques ou de maladies neurodégénératives, ne bénéficient pas de la baisse de prescription observée entre 2012 et 2022, contrairement aux personnes âgées atteintes d’autres pathologies.

De plus, pour ces patients, les niveaux de prescriptions potentiellement inappropriées de benzodiazépines sont déjà parmi les plus élevés, compris entre 30 % et 50 %. Or, ils peuvent avoir une capacité réduite à consentir à ces traitements.

La relation médecin-patient-aidant influe sur la décision de prescrire

Avec la dégradation de l’état de santé des personnes âgées et l’apparition de maladies neurodégénératives, telles que la maladie d’Alzheimer, le maintien à domicile repose le plus souvent sur la présence d’aidants familiaux, qui sont amenés à coordonner les soins de leurs proches.

Ils prennent en charge les rendez-vous médicaux, participent aux consultations et aident à la prise des médicaments. Ils jouent aussi un rôle clé en transmettant au médecin des informations précieuses sur l’état de la personne âgée, par exemple sur l’anxiété, les troubles du sommeil et les troubles comportementaux associés à l’évolution de la maladie.


À lire aussi : Burn-out et fardeau des aidants : de quoi parle-t-on exactement ?


Nos travaux révèlent que la présence d’un aidant familial pour les démarches médicales est associée à une augmentation de la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines à longue durée d’action (+ 21,7 points).

Les prescriptions sont plus fréquentes quand l’aidant partage, et donc observe, le quotidien de la personne âgée, parce qu’il est en couple ou cohabite avec elle. Le médecin, bien qu’informé de la nocivité des benzodiazépines, peut être amené à en prescrire lorsqu’aucune alternative n’apparaît envisageable face à des situations d’urgence décrites par l’aidant familial, qui appellent une décision immédiate.

Ces situations d’urgence peuvent prendre plusieurs formes : agitation nocturne intense qui peut conduire la personne âgée à chercher à sortir du domicile et mettre ainsi sa sécurité en jeu, une insomnie totale sur plusieurs nuits qui épuise à la fois la personne âgée et l’aidant, une agressivité soudaine se traduisant verbalement ou physiquement, mettant en difficulté l’aidant qui ne parvient plus à gérer la situation.

Si la relation médecins-aidants-patients a une influence sur la prescription de benzodiazépines, notre étude révèle que l’entrée des personnes âgées en Ehpad est elle aussi associée à un risque de prescription inappropriée.

Les prescriptions potentiellement inappropriées augmentent à l’entrée en Ehpad

L’entrée en établissement d’hébergement pour personnes âgées dépendantes (Ehpad) constitue une période de transition souvent difficile pour les personnes âgées, en particulier celles atteintes de troubles neurodégénératifs.

En France, près d’un résident sur deux en Ehpad présente une prescription potentiellement inappropriée de benzodiazépines. Cette fréquence élevée s’explique par plusieurs facteurs indépendants de l’établissement, tels que l’état de santé souvent dégradé des résidents, ainsi que par les pratiques de prescription des médecins.

À l’admission, certains résidents conservent leur médecin traitant, tandis que d’autres en changent, notamment pour s’adapter à l’organisation de l’établissement ou en raison de l’éloignement géographique avec leur médecin d’origine. Or, les médecins peuvent avoir avoir différentes façon de prescrire, leurs caractéristiques (âge, sexe, exercice solitaire ou en groupe notamment) peuvent avoir un impact important sur leurs prescriptions.

Toutes choses égales par ailleurs, la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines augmente de dix points après l’entrée en Ehpad.

Cette hausse est principalement portée par les prescriptions chroniques d’anxiolytiques, en lien avec l’apparition ou le renforcement des troubles anxieux à l’occasion de l’admission en Ehpad qui constitue une période très perturbante pour les personnes âgées.

Soulignons toutefois que l’impact de l’admission varie selon le type d’établissement : l’augmentation des prescriptions inappropriées est en effet plus limitée dans les Ehpad du secteur public hospitalier. Par ailleurs, les prescriptions de benzodiazépines sont moins fréquentes dans les établissements où la proportion d’infirmières au sein du personnel soignant est plus élevée. Lesdites infirmières, notamment l’infirmière cadre, jouent un rôle central de coordination des soins médicaux, notamment avec les médecins traitants de ville responsables du suivi médical des résidents.

Mieux informer, et de développer des alternatives non médicamenteuses

On l’a vu, une forte hétérogénéité de prescription persiste selon l’âge et le genre des praticiens. Ce constat plaide pour un renforcement de l’information sur la nocivité des benzodiazépines à destination de l’ensemble des médecins généralistes, afin de mieux les sensibiliser à cette problématique.

Plus largement, il conviendrait d’informer l’ensemble de la population française aux risques liés à l’usage prolongé des benzodiazépines. Cette information permettrait de sensibiliser aussi les aidants familiaux, qui n’ont souvent pas conscience des conséquences négatives de ces prescriptions pour la personne aidée, et qui considèreraient différemment ces prescriptions s’ils en connaissaient les effets sur le long terme.

Un autre levier d’action est de privilégier en première intention les approches non médicamenteuses. Ces alternatives sont déjà disponibles : l’adaptation du logement de la personne âgée (barres d’appui, tapis antidérapant…) pour faciliter ses déplacements et ainsi réduire l’anxiété liée à la peur de tomber ; la pratique d’une activité physique adaptée permettant la relaxation, le recours au psychologue ou à des thérapies cognitivocomportementales pour réduire l’anxiété.

Cependant, face à la diversité des alternatives thérapeutiques non médicamenteuses existantes, une labellisation des alternatives à l’efficacité scientifiquement démontrée apparaît nécessaire, afin de faciliter leur prescription par les médecins.

Enfin, dans les Ehpad, une évaluation systématique des traitements médicamenteux dans les six mois qui suivent l’entrée dans l’établissement, et une diffusion de la culture gériatrique au-delà des Ehpad publics hospitaliers, constitueraient deux pistes d’amélioration pour freiner les prescriptions potentiellement inappropriées de benzodiazépines.

The Conversation

Sylvain Pichetti, dans le cadre de son activité de chercheur à l'Irdes a reçu des financements de l'Institut pour la Recherche en Santé Publique (Iresp) dans le cadre de réponse à appels à projets.

Anne Penneau et Marc Perronnin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

16.02.2026 à 17:01

Faut-il encore faire des pesticides l’alpha et l’oméga de la protection des cultures ? Les exemples du Brésil et de la France

Christian Huyghe, Directeur scientifique pour l’agriculture, Inrae

Decio Karam, Chercheur, Empresa Brasileira de Pesquisa Agropecuária (Embrapa)

Les pesticides ont longtemps protégé les cultures, mais leurs effets délétères sont désormais bien documentés. Réduire cette dépendance est une urgence, en France comme au Brésil.
Texte intégral (2769 mots)

Si les pesticides ont longtemps assuré la protection des cultures, leurs effets délétères sont aujourd’hui largement documentés. Réduire cette dépendance est devenu une urgence sanitaire, environnementale et économique. Les stratégies de lutte contre les ravageurs intègrent aujourd’hui de nouvelles techniques innovantes. L’analyse de la situation en France et au Brésil livre un éclairage croisé sur cette question.


La protection des cultures est un enjeu majeur pour l’agriculture et pour la société au sens large. Elle permet de garantir une production suffisante en qualité et en quantité, tout en assurant des revenus à tous les acteurs des chaînes d’approvisionnement, des agriculteurs aux distributeurs.

Au cours des dernières décennies, la protection des cultures a reposé sur l’efficacité des pesticides de façon accrue. Dans le même temps, leurs effets négatifs sur la santé humaine, sur la qualité de l’eau, de l’air et sur la biodiversité sont de mieux en mieux documentés. Au plan économique, ces effets peuvent être considérés comme des coûts cachés pour la société. De plus, ces effets négatifs privent les agriculteurs de services écosystémiques précieux rendus par des sols en bonne santé.

À l’échelle mondiale, le recours aux pesticides peut également virer au casse-tête géopolitique, en fonction des pays où ils sont autorisés ou interdits. L’accord UE-Mercosur a récemment illustré les tensions que peuvent susciter des importations de produits traités avec des pesticides interdits dans les pays membres de l’Union européenne (UE), créant, de fait, des distorsions de concurrence entre les États.

Il apparaît donc urgent de façonner la protection des cultures de façon à alléger la dépendance des systèmes agricoles envers ces produits. Et si on adoptait un nouveau paradigme pour la protection des cultures, notamment inspiré par l’agroécologie et tenant davantage compte des nouveaux risques climatiques ? Des regards croisés sur la situation en France et au Brésil peuvent éclairer la question.

Mieux vaut prévenir que guérir

La lutte intégrée (ou protection intégrée) des cultures est un concept riche, établi depuis les années 1970. L’idée est de combiner des exigences écologiques, économiques et sanitaires.

Dans l’UE, la règle est de n’utiliser de produits chimiques phytopharmaceutiques qu’à la dose la plus faible possible (principes 5 et 6 du schéma ci-dessous) pour maintenir la présence des organismes nuisibles en dessous d’un seuil où les dommages ou pertes économiques deviennent inacceptables à court terme pour l’agriculteur. Pour limiter l’usage et l'impact de ces pesticides, il est donc essentiel d’enrichir la liste des alternatives aux pesticides (principe 4).

Cette approche implique qu’il est préférable d’agir en amont (principe 1) en mettant l’accent sur la prévention pour réduire au minimum la pression des maladies et des insectes. C’est une stratégie comparable à celle mobilisée en santé humaine, où il est recommandé d’avoir une hygiène de vie appropriée (sport, régime équilibré…) ou de se vacciner pour réduire le risque de maladies.

Les différentes étapes de la protection intégrée des cultures, avec une stratégie active de prophylaxie. Fourni par l'auteur

Cette stratégie de prophylaxie peut devenir active si, au cours de ses actions sur les cultures, l’agriculteur cherche à réduire le nombre de ravageurs. En diversifiant les moyens de lutte, cette stratégie permet également de limiter l’émergence de résistances chez les ravageurs. En effet, ces résistances apparaissent d’autant plus vite que les stratégies sont peu diversifiées.

L’utilisation de cultures de couverture, par exemple, est intéressante pour occuper l’espace au sol et éviter l’installation de mauvaises herbes. C’est d’autant plus pertinent dans les systèmes agricoles tropicaux, où la pression de sélection naturelle est plus élevée du fait des conditions de chaleur et d’humidité, et où ces résistances ont donc tendance à apparaître plus rapidement.

Associées à d’autres stratégies de gestion, les cultures de couverture sont donc un élément clé pour améliorer à la fois la qualité des sols, la productivité et la durabilité des systèmes agricoles.


À lire aussi : Les sols aussi émettent des gaz à effet de serre, et les pratiques agricoles font la différence


Microbiote végétal, paysages olfactifs… de nouveaux  leviers

De nouvelles techniques innovantes ont vu le jour depuis la mise en place de ce paradigme.

L’une des plus connues s’appuie sur l’agroécologie et la diversification des cultures, et mobilise des services écosystémiques largement documentés par la recherche. Cela peut par exemple passer, au Brésil, par des rotations plus longues, des cultures en mélanges, ou encore par des cultures intermédiaires de maïs, sorgho, mil ou sésame pour optimiser la culture du soja.

La sélection variétale est un autre levier crucial pour améliorer la valeur agronomique des cultures. La recherche de résistances génétiques aux champignons, aux virus et, dans une moindre mesure, aux bactéries et aux insectes, a été – et est toujours au cœur – des programmes de sélection.

Demain, cette approche pourra bénéficier des progrès réalisés dans le domaine de l’édition génétique : il est ainsi envisageable de stimuler, chez l’espèce cultivée, des gènes de résistance actifs chez des espèces étroitement apparentées, ou d’en réactiver d’autres qui auraient été contournés pendant l’évolution. Cela pose évidemment de nouvelles questions (propriété intellectuelle, cadre éthique, etc.) à ne pas sous-estimer.

Au cours des dernières années, l’existence d'un microbiote végétal a aussi été mise en évidence sur les graines, les feuilles, les racines et même à l’intérieur des tissus végétaux. Ces microbiotes jouent un rôle clé dans la nutrition des plantes, en facilitant l’échange de nutriments avec le sol, et dans leur protection contre les bioagresseurs. Il s’agit d’une perspective intéressante pour développer des solutions de biocontrôle alternatives aux pesticides.


À lire aussi : Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?


Poursuivons avec les composés organiques volatils (COV) émis dans l’environnement, qui conditionnent le comportement des insectes (recherche alimentaire ou de partenaires sexuels, par exemple). Ces signaux olfactifs sont un nouvel axe de recherche pour lutter contre les ravageurs.

Cette stratégie a l’avantage de présenter peu d’effets indésirables, car les COV sont très spécifiques. Ils peuvent par exemple être utilisés pour induire une confusion sexuelle qui limite la reproduction d’une espèce particulière d’insectes, les attirer dans un piège voire les éliminer grâce à un gel contenant les COV et un insecticide qui sera dès lors utilisé en très faible quantité par rapport à une application classique.


À lire aussi : Protéger les cultures sans pesticides grâce au langage olfactif des plantes


Ces stratégies de prévention en amont doivent, bien sûr, être pensées à l’échelle du paysage et être coordonnées entre les acteurs d’une zone géographique. Elles peuvent enfin être combinées à un dépistage plus précis des potentielles proliférations. Grâce aux outils de surveillance et d’aide à la décision (principes 2 et 3), on peut ainsi adapter la solution curative à mobiliser le cas échéant.

Une telle transition requiert un niveau élevé de coordination entre tous les acteurs du système agricole. Et ceci à tous les niveaux, des agriculteurs aux chaînes d’approvisionnement. Actuellement, près de 80 % des mesures mises en œuvre dans les plans d’action nationaux ciblent directement les agriculteurs. Les politiques publiques pourraient, à cet égard, mieux répartir l’effort de transition. La protection des cultures n’est pas seulement une question pour les agriculteurs : c’est un bien commun pour la société au sens large.


À lire aussi : Pesticides : les alternatives existent, mais les acteurs sont-ils prêts à se remettre en cause ?


Ce que disent les chiffres au Brésil et en France

La comparaison entre le Brésil et la France, situés dans des climats différents et avec des contextes sociopolitiques différents, est, à cet égard, instructive.

En France, au cours des quinze dernières années, les produits utilisés en protection des cultures ont fortement évolué, sous le triple effet de la réglementation encadrant le retrait de substances actives, en particulier les cancérigènes, mutagènes, reprotoxiques (CMR), des politiques publiques (plans Écophyto notamment) et de l’innovation. On utilise désormais moins de CMR et davantage de produits utilisables en agriculture biologique et/ou basés sur le biocontrôle.

Ventes de substances phytosanitaires en France. SDES

Au Brésil, les ventes de pesticides (hors produits autorisés en agriculture bio et pour le biocontrôle) s’élevaient encore à 755 400 tonnes en 2023 – dont près de 50 % de glyphosate, un chiffre en timide baisse de 5,6 % par rapport à 2022.

Or, la France utilise actuellement 2,9 kg de substances actives par hectare de surface ensemencée, contre 7,78 pour le Brésil. Ces différences s’expliquent en partie par les surfaces agricoles cultivées (hors prairies) : 14 millions d’hectares pour la France, contre 97 pour le Brésil. Il faut aussi tenir compte du fait que la plupart des terres cultivées au Brésil donnent lieu à deux cultures par an, ce qui est plus rare en France.

Toutefois, le secteur des « biointrants » (produits d’origine naturelle ou organismes vivants) progresse rapidement au Brésil, qui les utilise depuis les années 1960. Ce marché s’est établi plus tardivement en France mais progresse également rapidement. Les biointrants peuvent être utilisés en agriculture biologique ou, dans certains cas, combinés à des pesticides dans le cadre des programmes de lutte intégrée contre les ravageurs, que l’on a présentés plus haut.

À l’échelle mondiale, le marché des agents de biocontrôle et des biostimulants (intrants biosourcés permettant d’améliorer les productions végétales) était, en 2025, estimé à 11 milliards de dollars (9,2 milliards d’euros), dont 7 milliards (5,9 milliards d’euros) pour le biocontrôle, avec des taux de croissance annuels estimés de 10,5 à 15,6 % (selon les secteurs) jusqu’en 2035. En 2035, ce marché pourrait atteindre environ 41 milliards de dollars (34,5 milliards d’euros), dont 30 milliards (25,2 milliards d’euros) pour le biocontrôle.

La mobilisation de la prophylaxie et les nouvelles options de biocontrôle seront-elles de nature à remettre en cause l’omniprésence des pesticides ?


Cet article est publié dans le cadre de la Conférence FARM 2026 – Repenser la protection des cultures : agir collectivement pour le vivant, qui se tient le 17 février 2026 à la Cité internationale universitaire de Paris et dont The Conversation France est partenaire.

The Conversation

Christian Huyghe a reçu des financements de l'ANR et de l'Union européenne (H2020, Life-PLP, COST action).

Decio Karam est membre de Association Brésilienne du Maïs et du Sorgho, ; Conseil Scientifique de l’Agriculture Durable (CCAS)

PDF
12 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓