31.10.2025 à 12:02
Anne Boring, Associate professor, Erasmus University Rotterdam
Girls in France are much less inclined than boys to pursue scientific fields of study, and this is partly due to persistent gender stereotypes. But other factors also come into play. These explanations are based on a survey by the Chair for Women’s Employment and Entrepreneurship at Sciences Po.
How can we attract more women in France to higher education in science and technology? For several years, public authorities have been supporting initiatives aimed at promoting gender diversity in these fields of study, the most recent being the “Girls and Maths” action plan, launched by the ministry of national education, higher education, and research in May 2025.
There are two main reasons behind these initiatives. On the one hand, the aim is to reduce gender inequalities in the labour market, particularly the pay gap. On the other hand, the objective is to support economic growth in promising fields by training more people who can contribute to innovation in strategic sectors of activity.
The differences in orientation between women and men remain very marked at the start of higher education. This is evident from the choices made by high school seniors on Parcoursup, the French platform for accessing post-baccalaureate programmes, as can be seen in the following graph based on data made available on Datagouv. It represents the number of applications for the most popular courses of study (more than 4,000 applications).
The points above the diagonal represent programmes with a predominance of male applicants, while those below represent programmes with a predominance of female applicants. Men account for approximately 70% of applicants to science and technology programmes, including STAPS (science and technology of physical education and sports).
The main exceptions concern courses in life and earth sciences, for which there are more female applicants. Programmes in economics, management, and business (in blue) tend to be more mixed. Finally, programmes in health, humanities, social sciences, literature, languages, and arts (in purple) are mainly favored by women, who account for around 75% of applicants.
Certain factors that may explain these differences in study choices, in particular the role of gender stereotypes, differences in academic performance in science subjects, and self-confidence, have already been analysed.
In order to better understand the current reasons for the differences between women and men in higher education choices, the Chair for Women’s Employment and Entrepreneurship at Sciences Po conducted a survey in partnership with Ipsos in February 2025 among a representative sample of the student population in France, with a total of 1,500 responses. The results of this survey were published by the Observatory of Well-Being of the Centre for Economic Research and its Applications (Cepremap).
One of the striking findings of the survey concerns the differences between women and men in the importance they attach to passion as a determining factor in their higher education choices.
Significantly more female students choose courses related to their passions, and they seem to do so fully aware that these choices may penalise them later on in the job market. In fact, 67% of women (compared to 58% of men) say they “prefer to study a subject they are passionate about, even if it does not guarantee a well-paid job”, while 33% of women (compared to 42% of men) say they “prefer to get a well-paid job, even if it doesn’t guarantee that they will study a subject they are passionate about”.
Women who prioritise passion are more likely to enrol in arts and humanities programmes, while those who prefer a well-paid job are more likely to enrol in economics, business, and commerce programmes, or in science and technology programmes.
Furthermore, the survey results highlight the fact that parents are more influential in determining their sons’ educational choices than their daughters’. In fact, female students receive more support from their parents, regardless of their chosen field of study, while male students are less likely to receive their parents’ approval, particularly for fields of study that lead to less lucrative careers in the job market (eg humanities, social sciences or arts) or that have become feminised (eg law or health).
Paradoxically, the lack of parental influence on girls’ choices may explain why they are more likely to follow their passion, finding themselves more constrained in the job market later on.
The results also show that preferences developed for different subjects in secondary school account for more than half of the differences between women and men in their higher education choices.
Women appear to have more diverse tastes, with a preference for mathematics accounting for only a small part (around 10%) of the difference in study choices. This partly explains why women tend to shy away from science and technology courses of study, which may be perceived as requiring them to give up other subjects they enjoy. More men than women enjoyed only science subjects in secondary school (29% of male students compared to 14% of female students).
If the French economy needs more women with degrees in science and technology, how can we attract them to these fields? The main challenge lies in conveying a passion for science and technology to women.
This can be achieved through role models, such as high-achieving people who share their enthusiasm for their discipline before students make crucial choices. This can also involve the development of multidisciplinary courses that combine science, social sciences, and humanities, so as to offer young women (and young men) with varied interests the opportunity to pursue scientific studies without giving up other fields.
Finally, science programmes can adapt their educational offerings to make teaching more attractive to female students. By highlighting how science and technology can contribute to the common good and address the challenges of contemporary societies, a reformulation of course titles can, for example, highlight issues that are important to them.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund – now part of the Axa Foundation for Human Progress – has supported over 750 projects around the world on key environment, health & socioeconomic risks. To learn more, visit the website of the AXA Research Fund or follow @ AXAResearchFund on LinkedIn.
The collection of data was funded by the Chair for Women's Employment and Entrepreneurship (Sciences Po, Paris).
30.10.2025 à 16:05
François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université
Fabien Tripier, Professeur d'économie, Université Paris Dauphine – PSL
Pour stabiliser la dette publique de la France, l’État doit réduire son déficit. Outre la hausse des prélèvements, il doit aussi de diminuer ses dépenses. Mais avant de les réduire, il importe de savoir comment ces dépenses ont évolué ces trente dernières années.
L’analyse historique des dépenses de l’État peut être utile pour prendre aujourd’hui des décisions budgétaires. Qu’ont-elles financé ? Les salaires des agents ? Des achats de biens et services ? Des transferts ? Quels types de biens publics ont-elles permis de produire (éducation, santé, défense…) ?
Le futur budget de l’État doit tenir compte de ces évolutions passées, des éventuels déséquilibres en résultant, tout en réalisant que ces choix budgétaires auront des impacts sur la croissance et les inégalités spécifiques à la dépense considérée.
Le projet de loi de finances actuellement discuté pour l’année 2026 prévoit 30 milliards d’euros d’économies, ce qui représente 1,03 % du PIB. Ces économies sont obtenues avec 16,7 milliards d’euros de réduction de dépenses (0,57 point de PIB), et 13,3 milliards d’euros de hausse de la fiscalité. Le déficit public, prévu à 5,6 % en 2025 (163,5 milliards d’euros pour 2025) ne serait donc réduit que de 18,35 %. Pour atteindre l’objectif de stabiliser la dette publique, il faudra amplifier cet effort les prochaines années pour économiser approximativement 120 milliards d’euros (4 points de PIB), soit quatre fois les économies prévues dans le PLF 2026.
Ces réductions à venir des dépenses s’inscrivent dans un contexte. En moyenne, dans les années 1990, les dépenses publiques représentaient 54 % du PIB. Dans les années 2020, elles avaient augmenté de 3 points, représentant alors 57 % du PIB, soit une dépense annuelle additionnelle de 87,6 milliards d’euros, ce qui représente plus de cinq fois les économies inscrites dans le PLF pour 2026. Depuis 2017, ces dépenses ont augmenté d’un point de PIB, soit une hausse annuelle de 29,2 milliards d’euros (1,75 fois plus que les économies du PLF 2026). Étant données ces fortes hausses passées, des réductions de dépenses sont possibles sans remettre en cause le modèle social français. Mais, quelles dépenses réduire ?
À lire aussi : L’endettement de l’État sous Chirac, Sarkozy, Hollande, Macron… ce que nous apprend l’histoire récente
Chaque poste de dépense se compose d’achats de biens et services (B & S) utilisés par l’État (au sens large, c’est-à-dire l’ensemble des administrations publiques centrales, locales et de sécurité sociale) pour produire, de salaires versés aux agents, et de transferts versés à la population. Quel poste a fortement crû depuis 1995 ?
Le tableau 1 montre qu’en 1995, 40,2 % des dépenses étaient des transferts (soit 22,05 points de PIB), 35,5 % des achats de B & S (soit 19,45 points de PIB) et 24,3 % des salaires (soit 13,33 points de PIB). En 2023, 44,1 % étaient des transferts (+ 3,06 points de PIB), 34,5 % des achats de B & S (- 0,15 point de PIB) et 21,4 % des salaires (- 1,07 points de PIB). Le budget s’est donc fortement réorienté vers les transferts. Les dépenses consacrées aux salaires ont évolué moins vite que le PIB, le poids de ces rémunérations dans les dépenses baissant fortement.
Lecture : En 1995, les transferts représentaient 22,05 points de PIB, soient 40,2 % des dépenses totales. Le chiffre entre parenthèses indique la part de cette dépense dans les dépenses totales. Δ : différence entre 2023 et 1995 en points de PIB et le chiffre entre parenthèses l’évolution de la part.
L’État a donc contenu ces achats de B & S et réduit sa masse salariale, quand bien même les effectifs croissaient de plus de 20 % (données FIPECO). Simultanément, l’emploi salarié et non salarié du secteur privé augmentait de 27 % (données Insee). Des effectifs augmentant moins que dans le privé et une part de la production de l’État dans le PIB progressant révèlent une plus forte hausse de la productivité du travail du secteur public. Mais, ceci ne s’est pas traduit par une augmentation des rémunérations du public. Au contraire, l’écart de salaire entre le public et le privé s’est fortement réduit sur la période, passant de +11,71 % en 1996 en faveur du public (données Insee (1999) pour le public et Insee (1997) pour le privé), à 5,5 % en 2023 (données Insee (2024a) pour le privé et Insee (2024b) pour le public).
Cette première décomposition montre que l’organisation de la production de l’État (achat de B & S et salaires) n’a pas dérivé, mais que les hausses des dépenses de redistribution (+ 3,06 points de PIB en trente ans) ont fortement crû. Ces hausses de transferts correspondent aux trois quarts des économies nécessaires à la stabilisation de la dette publique.
Les dépenses de l’État se décomposent en différents services, c'est-à-dire, en différentes fonctions (l'éducation, la défense, la protection sociale…). La figure 1 montre que les dépenses des services généraux, d’éducation et de la défense ont crû moins vite que le PIB depuis 1995 (surface rouge). En effet, leurs budgets en points de PIB ont respectivement baissé de 2,14 points, 0,78 point et 0,68 point de PIB. Si la baisse du premier poste peut s’expliquer, en partie, par la rationalisation liée au recours aux technologies de l’information, et la seconde par l’arrêt de la conscription, celle de l’éducation est plus surprenante.
Elle l’est d’autant plus que Aubert et al. (2025) ont montré que 15 % de ce budget incluait (soit 0,75 point de PIB) des dépenses de retraites qu’il « faudrait » donc réallouer vers les pensions pour davantage de transparence. La croissance constante de cette contribution aux pensions dans le budget de l’éducation indique que les dépenses consacrées aux élèves sont en forte baisse, ce qui peut être mis en lien avec la dégradation des résultats des élèves de France aux tests de type Pisa. Enfin, dans le contexte géopolitique actuel, la baisse du budget de la Défense peut aussi sembler « peu stratégique ».
Lecture : En 1995, les dépenses de protection sociale représentaient 21,41 points de PIB, dont 18,14 points de PIB en transferts, 1,16 point en salaires et 2,11 points en B&S ; en 2023, elles représentaient 23,33 points de PIB dont 20,16 points, 1,12 point en salaire et 2,0 points en B&S.
La surface verte de la figure 1 regroupe les fonctions qui ont vu leurs budgets croître plus vite que le PIB, de la plus faible hausse (ordre public/sécurité, avec + 0,24 point de PIB) aux plus élevées (santé, + 1,72 point de PIB, et protection sociale, + 1,92 point de PIB). Ces deux postes de dépenses représentent 65,3 % des hausses. Viennent ensuite les budgets sport/culture/culte, environnement et logement qui se partagent à égalité 24 % de la hausse totale des dépenses (donc approximativement 8 % chacun). Enfin, les budgets des affaires économiques et de l’ordre public/sécurité expliquent les 10,7 % restant de hausse des dépenses, à hauteur de 6,4 % pour le premier et 4,3 % pour le second.
Si l’on se focalise sur les plus fortes hausses, c’est-à-dire, la santé et la protection sociale, les raisons les expliquant sont différentes. Pour la protection sociale, les dépenses de fonctionnement sont quasiment stables (B&S et salaires) alors que les prestations sont en forte hausses (+ 2 points de PIB). Les dépenses de santé voient aussi les prestations offertes croître (+ 1 point de PIB), mais se caractérisent par des coûts croissants de fonctionnement : + 0,6 point pour les B&S, et + 0,12 point de PIB pour les salaires des personnels de santé, alors que les rémunérations baissent dans le public, ceux des agents de l’éducation, par exemple, passant de 4,28 à 3,47 points de PIB (-0,81 points de PIB).
La protection sociale, premier poste de dépense (23,33 % du PIB), regroupe différentes sous-fonctions représentées dans la figure 2. À l’exception des sous-fonctions maladie/invalidité (+ 0,07 point de PIB), exclusion sociale (+ 0,43 point du PIB) et pensions (+ 2,41 points de PIB), les budgets de toutes les sous-fonctions de la protection sociale ont vu leur part baisser (surface en rouge). Les réformes des retraites ont donc été insuffisantes pour éviter que les pensions soient la dépense en plus forte hausse.
Enfin, si on ajoute aux dépenses de santé la partie des dépenses de protection sociale liée à la maladie et à l'invalidité (voir la figure 2), alors ces dépenses globales de santé ont crû de 1,79 point de PIB entre 1995 et 2023.
Ces évolutions suggèrent que les budgets à venir pourraient cibler les économies sur les dépenses de santé et les pensions, ces deux postes ayant déjà fortement crû dans le passé. Évidemment, une partie de ces hausses est liée à l’inévitable vieillissement de la population. Mais une autre vient de l’augmentation des prestations versées à chaque bénéficiaire. Par exemple, la pension de retraite moyenne est passée de 50 % du salaire moyen dans les années 1990 à 52,3 % en 2023. Le coût de la prise en charge d’un infarctus du myocarde est passé de 4,5 Smic dans les années 1990 à 5,6 Smic dans les années 2020
En revanche, un rattrapage portant sur l’éducation et la Défense semble nécessaire au vu du sous-investissement passé et des défis à venir. Les rémunérations des agents du public doivent aussi être reconsidérées. Le tableau 2 montre que le PLF 2026 propose des mesures répondant en partie a ce rééquilibrage en réduisant les dépenses de protection sociale et en particulier les pensions. Enfin, le PLF 2026 prévoit une hausse du budget de la défense, alors que la réduction de 8,6 milliards d’euros des budgets des fonctions hors défense et ordre public épargne l’éducation.
Au-delà de ces arguments de rééquilibrage, les choix budgétaires doivent aussi reposer sur une évaluation d’impact sur l’activité (croissance et emploi). Les analyses de Langot et al. (2024) indiquent que les baisses de transferts indexés sur les gains passés (comme les retraites) peuvent avoir un effet positif sur la croissance, facilitant alors la stabilisation de la dette publique, au contraire des hausses des prélèvements.
Privilégier la production des biens publics aux dépens des transferts se justifie aussi au regard des enjeux géopolitiques et climatiques, et permet également de réduire les inégalités (voir André et al. (2023)).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.10.2025 à 15:56
Ediberto Román, Professor of Law, Florida International University
Ernesto Sagás, Professor of Ethnic Studies, Colorado State University
La présence de Bad Bunny à la mi-temps du Super Bowl 2026 suscite une levée de boucliers dans les rangs trumpistes. L’artiste, né à Porto Rico – territoire disposant d’un statut spécifique, dont les habitants sont citoyens des États-Unis mais ne peuvent pas voter à l’élection présidentielle et ne disposent pas de représentants au Congrès –, devient malgré lui le symbole d’un système qui célèbre la culture latino tout en la réprimant à ses marges. Au moment où les abus de la police de l’immigration (ICE) alimentent la peur parmi les Hispaniques, l’apparition du rappeur sur la scène la plus médiatisée du pays met en évidence les contradictions du rapport des États-Unis à cette large communauté.
La désignation du rappeur portoricain Bad Bunny par la National Football League (NFL) pour effectuer un court concert lors de la mi-temps du Super Bowl 2026, le 8 février prochain, a déclenché les foudres des médias conservateurs et de plusieurs membres de l’administration Trump.
Alors que le président a qualifié ce choix d’« absolument ridicule », la secrétaire à la sécurité intérieure, Kristi Noem, a promis que des agents de la police de l’immigration (ICE) « seraient présents partout au Super Bowl ». Le célèbre commentateur de droite Benny Johnson a déploré dans un tweet posté sur X que le répertoire du rappeur ne contienne « aucune chanson en anglais », tandis que la polémiste Tomi Lahren a déclaré que Bad Bunny n’était pas états-unien.
Bad Bunny, né Benito Antonio Martínez Ocasio, est une superstar et l’un des artistes les plus écoutés au monde. Et comme il est portoricain, il est également citoyen des États-Unis.
Il est certain que Bad Bunny coche de nombreuses cases qui irritent les conservateurs. Il a apporté son soutien à Kamala Harris pour la présidence en 2024. Il a critiqué les politiques anti-immigration de l’administration Trump. Il a refusé d’effectuer une tournée sur le continent américain, craignant que certains de ses fans ne soient pris pour cible et expulsés par l’ICE. Et ses paroles explicites – dont la plupart sont en espagnol – feraient frémir même les plus ardents défenseurs de la liberté d’expression. Sans même parler de sa garde-robe androgyne.
Et pourtant, en tant qu’experts des questions d’identité nationale et des politiques d’immigration des États-Unis, nous pensons que les attaques de Lahren et Johnson touchent au cœur même de la raison pour laquelle le rappeur a déclenché une telle tempête dans les rangs de la droite. Le spectacle d’un rappeur hispanophone se produisant lors de l’événement sportif le plus regardé à la télévision états-unienne constitue en soi une remise en cause directe des efforts déployés par l’administration Trump pour masquer la diversité du pays.
Bad Bunny est né en 1994 à Porto Rico, un « État libre associé » aux États-Unis, rattaché à ces derniers après la guerre hispano-américaine de 1898.
Cette terre est le foyer de 3,2 millions de citoyens états-uniens de naissance. Si le territoire était un État fédéré des États-Unis, il serait le 30e le plus peuplé par sa population, d’après le recensement de 2020.
Mais Porto Rico n’est pas un État ; c’est une colonie issue de l’époque révolue de l’expansion impériale américaine outre-mer. Les Portoricains n’ont pas de représentants votant au Congrès et ne peuvent pas participer à l’élection du président des États-Unis. Ils sont également divisés sur l’avenir de l’île. Une grande majorité souhaite soit que Porto Rico devienne un État états-unien, ou obtienne un statut amélioré par rapport à l’actuel, tandis qu’une minorité plus réduite aspire à l’indépendance.
Mais une chose est claire pour tous les Portoricains : ils viennent d’un territoire non souverain, avec une culture latino-américaine clairement définie – l’une des plus anciennes des Amériques. Porto Rico appartient peut-être aux États-Unis ; et de nombreux Portoricains apprécient cette relation privilégiée, mais l’île elle-même ne ressemble en rien aux États-Unis, ni dans son apparence ni dans son atmosphère.
Les plus de 5,8 millions de Portoricains qui résident dans les 50 États compliquent encore davantage le tableau. Bien qu’ils soient légalement citoyens des États-Unis, les autres États-Uniens ne les considèrent souvent pas comme tels. En effet, un sondage réalisé en 2017 a révélé que seuls 54 % des États-Uniens savaient que les Portoricains étaient citoyens du même pays qu’eux.
Les Portoricains vivent dans ce que nous appelons le « paradoxe des citoyens étrangers » : ils sont citoyens des États-Unis, mais seuls ceux qui résident sur le continent jouissent de tous les droits liés à la citoyenneté.
Un rapport récent du Congrès américain a conclu que la citoyenneté états-unienne des Portoricains « n’est pas une citoyenneté égale, permanente et irrévocable protégée par le 14e amendement […] et le Congrès conserve le droit de déterminer le statut du territoire. » Tout citoyen états-unien qui s’installe à Porto Rico ne jouit plus des mêmes droits que les citoyens états-uniens du continent.
La désignation de Bad Bunny pour le spectacle de la mi-temps du Super Bowl illustre bien ce paradoxe. Outre les critiques émanant de personnalités publiques, il y a eu de nombreux appels parmi les influenceurs pro-Trump à expulser le rappeur.
Ce n’est là qu’un exemple parmi d’autres qui rappelle aux Portoricains, ainsi qu’aux autres citoyens latino-américains, leur statut d’« autres ».
Les arrestations par l’ICE de personnes semblant être des immigrants – une tactique qui a récemment reçu l’aval de la Cour suprême – illustre bien leur statut d’étrangers.
La plupart des raids de l’ICE ont eu lieu dans des communautés majoritairement latino-américaines à Los Angeles, Chicago et New York. Cela a contraint de nombreuses communautés latino-américaines à annuler les célébrations du Mois du patrimoine hispanique.
La vague de xénophobie contre Bad Bunny a poussé des responsables politiques comme le président de la Chambre des représentants Mike Johnson à réclamer son remplacement par une personnalité « plus appropriée » pour le Super Bowl, comme l’artiste de musique country Lee Greenwood, 83 ans, supporter de Donald Trump. À propos de Bad Bunny, Johnson a déclaré : « Il semble qu’il ne soit pas quelqu’un qui plaise à un large public. »
Mais les faits contredisent cette affirmation. L’artiste portoricain occupe la première place des classements musicaux mondiaux. Il compte plus de 80 millions d’auditeurs mensuels sur Spotify. Et il a vendu près de cinq fois plus d’albums que Greenwood.
Cet engouement mondial a impressionné la NFL, qui organise sept de ses rencontres à l’étranger cette saison et souhaite encore accroître ce nombre à l’avenir. De plus, les Latino-Américains représentent la base de fans qui connaît la plus forte croissance au sein de la ligue, et le Mexique est son plus grand marché international, avec 39,5 millions de fans selon les chiffres publiés.
La saga « Bad Bunny au Super Bowl » pourrait bien devenir un moment politique important. Les conservateurs, dans leurs efforts pour mettre en avant « l’altérité » de Bad Bunny – alors que les États-Unis sont l’un des premiers pays hispanophones au monde – ont peut-être involontairement sensibilisé les États-Uniens au fait que les Portoricains étaient leurs concitoyens.
Pour l’heure, les Portoricains et le reste de la communauté latino-américaine des États-Unis continuent de se demander quand ils seront acceptés comme des égaux sur le plan social.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.10.2025 à 15:52
Jean-Baptiste Carobolante, Professeur d'histoire et théorie de l'art, ESA / École Supérieure d'Art / Dunkerque - Tourcoing

Alors que nous traversons une époque de plus en plus troublée, un constat s’impose : le cinéma d’horreur, lui, se porte à merveille. Ce succès n’a rien d’anodin : il reflète la manière dont les inquiétudes sociétales, toujours plus prégnantes, trouvent dans l’horreur un terrain d’expression privilégié, un miroir révélateur de nos angoisses collectives.
Ces dernières années ont vu émerger nombre de films et de séries rencontrant un véritable engouement, tandis que certains réalisateurs – comme Jordan Peele, Ari Aster ou Jennifer Kent – sont devenus des auteurs plébiscités, voire des figures incontournables du genre.
Les racines du cinéma d’horreur actuel se trouvent dans les productions hollywoodiennes des années 1970. À ce sujet, le critique Jean-Baptiste Thoret relevait que le cinéma de l’époque fut déterminé par la généralisation de la télévision dans les foyers, et de son nouveau registre d’images. Les horreurs du monde extérieur étaient ainsi présentées tous les soirs dans les salons familiaux.
La guerre du Vietnam, les émeutes réprimées de manière sanglante – notamment les sept « émeutes de Watts » aux États-Unis en août 1965 –, les faits divers lugubres s’introduisaient dans le quotidien de tous les Américains, puis de tous les Occidentaux. Le cinéma de possession, l’Exorciste (William Friedkin, 1973), mais aussi les slashers et leurs tueurs barbares arpentant les paisibles zones pavillonnaires (la Dernière Maison sur la gauche, Wes Craven, 1972) en sont des exemples probants : les peurs de la destruction du soi intime et de l’espace domestique furent liées à cette obsession pour un « mal intérieur » que diffusait, incarnait et répandait l’écran de télévision.
Mais c’est aussi, bien sûr, le cinéma de zombies (la Nuit des morts-vivants, George A. Romero, 1968) au postulat très simple : les morts viennent harceler les vivants ; ou, en termes cinématographiques, le hors-champ vient déborder dans le champ. De fait, la décennie posa des bases horrifiques qui sont toujours valides aujourd’hui.
Le cinéma d’horreur est un registre qui tourne toujours autour d’un même sujet : les frontières (d’un monde, d’un pays, d’une maison, d’un corps) sont mises à mal par une puissance insidieuse, puissante, voire surnaturelle.
Notre siècle se situe de fait dans la continuité des années 1970 qui ont posé les bases du genre. Nous pouvons définir quatre grandes peurs qui traversent toutes les productions horrifiques actuelles : la question du contrôle politique, de son efficience et de ses abus ; la question de l’identité et de la différence ; celle de la violence, de l’agression, voire de la torture ; et, enfin, la peur des médias et de la technologie.
La peur politique est au cœur de nombreuses productions horrifiques. C’est notamment le cas de la saga American Nightmare (James DeMonaco, 2013–2021) qui nous présente une société américaine fondamentalement dysfonctionnelle en raison de ses orientations politiques : une nuit par an, afin de « purger » la société, toutes les lois sont suspendues. Le troisième volet, The Purge : Election Year (James DeMonaco, 2016), ne s’y trompait pas en détournant la casquette du mouvement MAGA sur son affiche promotionnelle.
Mais l’horreur des choix politiques se trouve également au cœur des films apocalyptiques et postapocalyptiques. Qu’ils mettent en scène des zombies, des épidémies ou des extra-terrestres, l’horreur provient bien souvent de l’incapacité institutionnelle à répondre au mal, puis de la violence fondamentale avec laquelle les sociétés se reconstituent ensuite. C’est notamment le cas dans la série The Walking Dead (Frank Darabont, 2010–2022), qui nous présente tout un répertoire de modes de vie collective, en majorité profondément inégalitaires, voire cruelles.
Les questions identitaires, elles, relèvent de l’horreur politique lorsque les films prennent le racisme comme sujet. On retrouve cet aspect dans Get Out (Jordan Peele, 2017), dans lequel de riches Blancs s’approprient les corps d’Afro-Américains afin de s’offrir une seconde jeunesse. Mais c’est aussi le cas, de façon plus générale, du cinéma de possession, qui est toujours un cinéma traitant de problèmes identitaires, du rapport à soi, voire de folie ou de dépression. Possédée (Ole Bornedal, 2012), Mister Babadook (Jennifer Kent, 2014), ou encore Heredité (Ari Aster, 2018) mettent tous en scène des individus combattant un démon – ou une entité maléfique – pour retrouver un sens à leur vie et une stabilité identitaire.
La peur de la violence est peut-être la réponse cinématographique la plus directe aux faits divers qui ont envahi les médias depuis plusieurs décennies. Faits divers ayant même donné naissance à des sous-genres cinématographiques autonomes. Le « torture porn » – illustré par les sagas Saw (depuis 2004), Hostel (2005–2011) et The Human Centipede (Tom Six, 2009–2016), par exemple – est un type de film dont l’objet est la représentation de tortures physiques et/ou psychologiques infligées par un maniaque (ou un groupuscule puissant) à des individus malchanceux. Le « rape and revenge » (« viol et vengeance »), quant à lui, représente, comme son nom l’indique, de jeunes femmes violentées qui prennent leur revanche sur leurs agresseurs, souvent de manière sadique. C’est le cas de films comme Revenge (Coralie Fargeat, 2017) ou la saga I Spit on Your Grave (2010–2015).
Enfin, le dernier territoire que nous mentionnons a fini, selon nous, par englober tous les autres. À notre époque, toute peur est liée à la manière dont nous nous représentons le monde, l’Autre et nous-mêmes, sous la forme d’un simulacre ou via un dispositif technologique intercesseur.
Le réel s’offre à nous à travers des filtres technologiques. Ainsi, c’est toujours à l’écran – télévision, ordinateur ou smartphone – de « rendre réel », de définir ce qui est vrai, et de nous offrir des expériences. Or, nous courons toujours le risque que ces systèmes de représentation abusent de nous et deviennent, à leur tour, oppressants. C’est le postulat même du registre horrifique du « found footage », depuis le Projet Blair Witch (Daniel Myrick et Eduardo Sánchez, 1999), en passant par les sagas Paranormal Activity (2007–2021), REC (2007–2014), ou encore Unfriended (Levan Gabriadze, 2014). Ces films, prenant l’aspect et la forme d’archive retrouvée – bien souvent domestique ou policière –, peuvent centrer leurs récits aussi bien autour de spectres, de tueurs en série ou d’extra-terrestres, car c’est le dispositif d’image lui-même, plus que le monstre, qui crée la matière horrifique.
Deux phénomènes nouveaux semblent, toutefois, se dégager depuis quelques années. Le premier, par son absence relative dans le cinéma d’horreur, et le second, par son omniprésence.
Il s’agit tout d’abord du cataclysme écologique, que l’on retrouve de façon prégnante dans le cinéma de science-fiction, mais très peu dans les films d’horreur. Cette absence, plutôt que de témoigner d’une incapacité de représentation, relève peut-être d’un enjeu trop mondial pour être abordé par un genre finalement plus attaché à des parcours intimes, à des trajectoires d’individus confrontés à l’horreur, plutôt qu’à des horreurs sociétales.
Bien sûr, le cinéma de zombies ou d’apocalypse traite déjà en substance de cet effondrement civilisationnel, mais il faut que ce soit l’humain qui meure, et non le vivant, la nature ou l’environnement, pour que l’horreur devienne manifeste.
Quelques films, comme le long métrage français la Nuée (Just Philippot, 2020), tentent toutefois de poser la question d’une horreur humaine à partir d’une bascule environnementale. Notons également que la pandémie de Covid-19 n’a pas laissé de trace significative dans le genre horrifique. L’horreur pandémique est déjà présente au cinéma depuis les zombies de la fin des années 1960, lorsque la peur et la paranoïa suscitée par le confinement sont déjà figurées au cinéma à travers le motif de la maison hantée qui nous présente toujours des individus prisonniers d’un espace domestique devenu oppressant, voire létal.
Enfin, l’omniprésence actuelle que nous évoquions est certainement celle de l’inéluctabilité du mal. Alors que le cinéma d’horreur des décennies précédentes était encore un cinéma globalement centré sur le monstre (tueur, démon, alien, spectre, etc.), tangible et donc affrontable, notre époque contemporaine présente des antagonistes qui ne sont rien d’autre qu’une puissance abstraite de destruction.
Des films sortis cette année, comme les Maudites (El Llanto, Pedro Martin-Galero, 2024) ou Vicious (Bryan Bertino, 2025), représentent le mal comme une volonté omniprésente, omnipotente, qui dépasse et qui détruit tous les cadres de protection. La société, la famille, le réel volent en éclats ; et nous, spectatrices et spectateurs, ne pouvons que contempler la longue descente aux enfers d’individus voués au néant.
Ce motif horrifique ne nous semble pas anecdotique, tant il dit quelque chose de notre époque, de ses peurs, voire de son désespoir. Comme dans le cinéma expressionniste allemand des années 1930, une puissance a pris le contrôle de la société, et le cinéma d’horreur actuel semble se résigner à le laisser dramatiquement triompher.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Jean-Baptiste Carobolante ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:52
Maxime Parola, Doctorant en Art, Université Côte d’Azur

Apparu dans les années 1970, le « slasher » est une catégorie de film d’horreur répondant à une typologie très stricte et particulièrement codifiée. Si le réalisateur Wes Craven n’est pas à proprement parler à l’origine du genre, il y a contribué de façon significative au travers de plusieurs films dont les plus marquants sont sans conteste « les Griffes de la nuit » (1984), où apparaît la figure de Freddy Krueger, et « Scream » (1996) qui lancera la vague des « neo-slashers ».
Le slasher se définit par un certain nombre de figures imposées tant dans le type de personnages mis en scène que par l’histoire qu’il raconte. C’est toujours le récit d’un groupe d’adolescents ayant commis une faute, ou dont les parents ont commis une faute. Ils sont poursuivis par un tueur, systématiquement masqué et qui les tuera avec une arme blanche, toujours la même. Les victimes s’enchaînent alors dans une série de meurtres violents liés à des transgressions adolescentes (consommation de drogues, alcool, relation sexuelle, etc.).
L’héroïne du film, toujours une femme, qui elle n’a commis aucune transgression, affronte le tueur dans un dernier face à face dont elle sortira victorieuse. C’est l’iconique « final girl ». Le tueur, vaincu, laisse généralement entendre qu’il pourrait revenir par une ultime déclaration, un effet de surprise, voir une déclaration humoristique… À titre d’exemple la scène de fin de la Fiancée de Chucky (1998), quatrième volet de la saga, où la poupée tueuse déclare d’un air dépité à celle qui la menace d’une arme : « Vas-y tue moi, je reviens toujours… C’est juste que c’est chiant de mourir. »
Le premier film à porter tous les codes du slasher est Halloween, la nuit des masques (1978), de John Carpenter. La célèbre scène de la douche dans Psychose (1960) en est peut-être la matrice : tous les codes du slasher y sont déjà réunis (une victime féminine poignardée à répétition par un ennemi sans visage). L’autre branche historique du slasher est celle du giallo italien et notamment le célèbre film la Baie sanglante (1971), de Mario Bava, qui porte déjà certains codes, comme les morts violentes et la sexualité.
Si Wes Craven ne rejoint formellement le genre qu’en 1984, son tout premier film, que certains qualifie de « proto-slasher », la Dernière Maison sur la gauche (1972) – lui même un remake du méconnu Jungfrukällan (la Source), d’Ingmar Bergman (1960) – avait posé certains éléments du genre parmi lesquels la violence exacerbée, le rapport entre meurtre et transgression sexuelle, et l’idée d’une héroïne féminine plus forte que ses agresseurs.
En 1984, Wes Craven sort les Griffes de la nuit. Si ce film respecte scrupuleusement tous les codes du genre, on peut voir aussi comment il les tord pour mieux les affirmer. Ainsi le tueur incarné par Freddy Krueger utilise une arme improbable, puisqu’il s’est fabriqué un gant en métal garni de lames de rasoir. Il ne porte pas non plus de masque, mais il a le visage gravement brûlé. La sexualité est présente chez toutes les victimes mais aussi dans le discours de Freddy, et dans son passé de tueur pédophile. C’est d’ailleurs la vengeance des habitants du quartier qui constitue la transgression originelle que les enfants doivent expier.
Dans Scream (1996) et dans les Griffes de la nuit, on retrouve l’idée d’un secret porté par les parents dont les conséquences retombent sur les enfants. Derrière le pavillon idéal d’Elm Street se cachent des meurtriers qui ont brûlé vif un homme et le dissimulent à leurs enfants, même après les premiers meurtres dans le quartier. Dans Scream, c’est plus prosaïquement les mœurs légères d’une mère de famille assassinée et le déni de sa fille vis-à-vis de ces transgressions qui font apparaître le tueur.
On voit qu’il y a dans ces deux cas l’idée d’une société des apparences qui serait en réalité pourrie, et on retrouve la critique du mode de vie américain déjà visible chez Stephen King, par exemple. Derrière un puritanisme d’apparence, se cachent les crimes que l’on dissimule à nos enfants.
Cette thématique récurrente dans le cinéma américain (dans un registre comique, il s’agit d’ailleurs du pitch de Retour vers le futur où un adolescent élevé par une mère stricte se retrouve renvoyé dans le passé pour découvrir qu’elle-même fut une adolescente très libérée) est un point structurant dans les films d’horreur américains et encore plus dans le slasher.
Cette interprétation politique du slasher se voie complétée par une autre interprétation plus universelle et psychanalytique. Par delà la question de l’hypocrisie parentale, c’est celle du refoulement du sexuel dans les sociétés issues des trois monothéismes qui est en jeu. Si la question de la sexualité, en tant qu’elle transforme le corps, peut être perçue universellement comme un sujet d’angoisse, elle ne devient une question morale que quand elle est associée à la notion d’interdit.
Le tueur masqué et sans visage est plus facilement reconnu à son arme qu’à sa tête. Or, l’arme blanche qu’il porte et qui le caractérise n’est-elle pas justement une métaphore phallique ? Le tueur sans visage est alors une allégorie du sexuel, masculin et intrusif, s’opposant à la figure de la jeune femme vertueuse. L’angoisse du spectateur devant l’antagoniste se conçoit alors comme la matérialisation d’une angoisse adolescente, celle de l’entrée dans la sexualité.
Entre la figure forte de la « final girl » et les transgressions sexuelles à l’origine des meurtres se pose la question récurrente du message porté par les slashers. Ambivalent par nature, il est difficile de dire du slasher s’il est féministe ou conservateur. En nous plaçant régulièrement derrière le masque du tueur, nous nous retrouvons dans la position de celui qui punit, prenant de fait le parti d’une morale conservatrice. Mais, d’un autre côté, on y découvre que la société présentée aux autres personnages comme vertueuse est le plus souvent pourrie par le secret et par le mensonge.
L’héroïne adolescente du film se voit alors prise entre deux mondes d’adultes aussi peu enviables l’un que l’autre et nous rappelle une autre figure culte du cinéma adolescent, dans un tout autre genre, celle de Pauline à la plage (1983), d’Éric Rohmer, où les tartufferies des adultes les décrédibilisent et font comprendre à Pauline qu’elle devra trouver son propre chemin loin des modèles et des figures imposées. Une « final girl » à la française pour ainsi dire…
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:50
Tommaso Germain, Chercheur en science politique, Sciences Po
Sébastien Lecornu a donné jusqu’à ce 31 octobre aux élus locaux pour lui remettre des propositions relatives à la décentralisation. Alors qu’Emmanuel Macron a plutôt « recentralisé » depuis 2017, son nouveau premier ministre promet un « grand acte de décentralisation » visant à redéfinir le partage – souvent confus – des compétences entre les acteurs (État, régions, départements, métropoles, communes, intercommunalités…). Une telle ambition est-elle crédible alors que le gouvernement envisage un budget d’austérité impactant lourdement les collectivités territoriales ?
La décentralisation est l’un des principaux chantiers annoncés par le premier ministre Sébastien Lecornu avant sa démission du 6 octobre et qui a été réaffirmé dès la constitution de son second gouvernement. Depuis l’élection d’Emmanuel Macron à la présidence de la République en 2017, aucune loi n’a poursuivi les trois premiers actes de décentralisation (1982, 2004, 2015). Des formes d’organisation locales et hétérogènes se sont multipliées.
Dans sa déclaration de politique générale, le chef du gouvernement entend mettre fin à cette hétérogénéité en clarifiant le partage des compétences entre l’État et les collectivités. Mais une « rupture » avec la décentralisation telle qu’observée aujourd’hui est-elle possible ?
On sait que la France est un pays historiquement centralisé, des Capétiens à la monarchie absolue, de la révolution jacobine à la Ve République. L’État hérité de la féodalité est d’abord demeuré centré sur des fonctions dites « régaliennes » : l’armée, la fiscalité, la diplomatie, la police ou la justice, avec, en son cœur, un appareil administratif professionnalisé. À l’ère moderne, l’État s’adosse à la nation, et poursuit sa croissance indépendamment du régime politique (monarchie, république, empire). Il faut pourtant signaler que ce qu’on appelle « l’État-providence » s’est en grande partie développé localement, les initiatives territoriales étant parfois reprises et généralisées par le centre, dès le Second Empire et la IIIᵉ République, dans le domaine de l’assistance et de l’action sociale.
Pourtant, depuis plus de quarante ans, une politique de décentralisation est à l’œuvre. Les trois premières étapes ou premiers moments, que l’on appelle « actes » pour leur donner la puissance de l’action, ont profondément modifié le système de pouvoir et d’action publique. D’abord, au début des années 1980, des régions autonomes ont été créées et les échelons communaux et départementaux renforcés, ces trois collectivités disposant de conseils élus. La fonction publique territoriale est également créée.
En 2003-2004, le second acte a renforcé l’autonomie des collectivités tout en transférant certaines compétences, telle la politique sociale, transférée au département, pleinement responsable. D’aucuns y ont vu l’apparition d’un « département-providence ».
Quant au dernier acte en date, il remonte au quinquennat du socialiste François Hollande : regroupement des régions pour atteindre une taille critique, affirmation des métropoles, clarification du partage de compétences.
Parallèlement à ce processus, l’État n’a cessé de revoir son ancrage territorial, depuis les années 1990. La réforme de l’administration territoriale de l’État (dite RéATE), en 2007, a régionalisé l’action de l’État. À la suite de la crise des gilets jaunes (2018-2019), le gouvernement a déployé une réorganisation territoriale discrète, renforçant l’articulation interministérielle et le rôle du préfet.
En revanche, depuis 2017, la décentralisation n’a plus bougé. Emmanuel Macron n’en a pas fait un axe structurant de ses mandats – lesquels sont même perçus comme recentralisateurs.
Des formes locales très différentes ont finalement proliféré, questionnant le principe initial d’une République « une et indivisible ». Que l’on pense au sinueux bâtissage de la métropole du Grand Paris, aux spécificités des métropoles d’Aix-Marseille ou de Lyon, à la communauté européenne d’Alsace qui a uni, en 2021, deux départements historiques, aux intercommunalités rurales souvent indispensables, au regroupement de communes, au statut spécifique de la Corse intégrée depuis 1768 ou encore à Mayotte refondée en 2025 et à la Nouvelle-Calédonie, dont le statut est actuellement négocié.
Sébastien Lecornu a choisi de remettre en ordre cette nature proliférante, résultant à la fois de la réorganisation de l’État localement et de la décentralisation.
Dans sa déclaration de politique générale, le premier ministre a assumé sa volonté de « rupture », clé de la légitimité de son gouvernement et des réformes nécessaires au redressement de la France. S’agit-il également d’une rupture avec l’arrêt de la décentralisation sous Emmanuel Macron ? Pour Sébastien Lecornu, la décentralisation ne doit plus suivre l’ancienne logique de rationalisation et de délégation. Il déclare ainsi :
« Je proposerai un principe simple, celui de l’identification d’un seul responsable par politique publique. Il s’agira soit d’un ministre, soit d’un préfet, soit d’un élu. Il ne faut pas décentraliser des compétences. Il faut décentraliser des responsabilités, avec des moyens budgétaires et fiscaux et des libertés, y compris normatives. »
Si le gouvernement semble tout adéquat pour les politiques régaliennes et les préfets pour leur déploiement, quels élus locaux seront responsables ? Le principe d’un décideur par politique publique imposerait de repenser l’ensemble de l’action publique – c’est un chantier pharaonique.
Car malgré les trois actes de décentralisation, les compétences ne sont pas à ce jour clairement réparties : quel citoyen pourrait clairement savoir à quel niveau de gouvernement s’adresser selon sa demande ? Le rapport Ravignon (2024) évoque une « grande confusion » des citoyens devant cette complexité. Il montre aussi que de nombreuses politiques publiques sont éclatées et dépendent parfois de trois acteurs ou plus, comme le tourisme, la culture ou le développement économique. Cela est également visible dans l’aménagement du territoire, où les évolutions dépendent de l’État, de la stratégie régionale et des départements, voire des intercommunalités et des communes.
Pour certaines politiques, on assiste même à une concurrence entre autorités publiques. Les communes (ainsi que certaines métropoles) disposent de la clause générale de compétences, qui leur permet de toucher à tout sujet dont elles souhaitent s’emparer. On les retrouve ainsi intervenant là où le font déjà l’État (logement, transition écologique…), les régions (développement économique, tourisme…) ou les départements (culture, insertion…).
Notons, par ailleurs, la montée en puissance des métropoles qui s’est faite de manière discrète, notamment par le biais des politiques d’aménagement. Créées en 2010 et généralisées en 2014, désormais au nombre de 21, elles tendent à devenir la nouvelle frontière de l’État-providence, c’est-à-dire l’espace où la modernisation du système social se réalise en regroupant un large éventail de compétences. C’est encore plus vrai lorsque les compétences sociales du département sont intégrées à cet éventail, comme dans le cas de Lyon ou de Paris.
On comprend mieux pourquoi le rapport Woerth de 2024 proposait de recentrer l’action des métropoles. Les compétences sociales, qui représentent une lourde charge, restent principalement à la charge des départements, expliquant souvent leurs problèmes financiers, comme dans le cas emblématique de la Seine-Saint-Denis, soutenue directement par l’État. Une clarification sur ce sujet deviendrait nécessaire, d’autant plus que les départements continuent d’investir le développement économique (pourtant responsabilité de la région depuis l’acte III de la décentralisation, en 2015).
Le regroupement de communes et d’intercommunalités mériterait également de se poursuivre, notamment en zone rurale. Si Matignon souhaite un recentrage de l’État sur les fonctions régaliennes, la question du retrait de l’État de politiques qu’il tend à réinvestir, comme l’urbanisme ou la lutte contre la pauvreté, se pose également. Cela supposera également de penser une nouvelle étape de déconcentration.
Enfin, certaines compétences méritent d’être mieux organisées pour faire face à des défis qui ne feront qu’augmenter dans les années et décennies à venir, à l’instar du grand âge. Mais une telle clarification ne saurait se faire sans base financière durable.
Pour la première fois, le chantier de la décentralisation revient avec grande ambition, à l’heure de la crise budgétaire. Devant le Sénat, Sébastien Lecornu a affirmé que « le grand acte de décentralisation » s’inscrivait pleinement dans cette problématique financière, qui vient en justifier l’urgence également.
S’il y a « rupture », ce serait dans l’idée que seul un transfert massif « des responsabilités » aux collectivités pourra garantir la hausse des moyens des fonctions régaliennes de l’État, alors que l’effort financier demandé aux collectivités représente au moins 4,6 milliards d’euros selon le gouvernement, mais jusque 8 milliards d’euros selon les élus locaux. Face à cet impératif budgétaire, une décentralisation poussée, de « rupture » est-elle envisageable ? Le projet de loi à venir, vraisemblablement début 2026, saura éclairer ces aspects.
Tommaso Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:49
Corinne Augé, Professeur en génétique moléculaire et biotechnologie, Université de Tours
Stéphane Mortaud, Professeur neurosciences, CNRS, Université d’Orléans
Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?
Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.
Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.
Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.
Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.
Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.
Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.
Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?
Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).
Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.
Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.
En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.
D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.
Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.
En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.
Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !
L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.
La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.
Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.
Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.
Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.
Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Corinne Augé a reçu des financements de l'INCa et La Ligue
Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:44
Céline Antonin, Chercheur à Sciences Po (OFCE) et chercheur associé au Collège de France, Sciences Po

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les « stablecoins » (jetons indexés) prétendent révolutionner la monnaie et la finance. Pourtant, ils portent en germe une double menace : la fragilisation de l’ordre monétaire, fondé sur la confiance, et de l’ordre financier, en créant de nouveaux canaux de risque.
Les « stablecoins » sont des « jetons qui ont pour objectif de pallier la forte volatilité des cryptoactifs traditionnels grâce à l’indexation de leur valeur sur celle d’une devise ou d’un panier de devises (dollar, euro, yen) dans un rapport de 1 : 1, ou encore sur une matière première (or, pétrole) » ainsi que nous l’expliquons dans notre ouvrage avec Nadia Antonin. Pour chaque unité de stablecoin émise, la société émettrice conserve en réserve une valeur équivalente, sous forme de monnaie fiduciaire ou d’actifs tangibles servant de garantie.
On peut distinguer trois types de stablecoins en fonction du type d’ancrage :
Les stablecoins centralisés, où l’ancrage est assuré par un fonds de réserve stocké en dehors de la chaîne de blocs (off chain).
Les stablecoins décentralisés garantis par d’autres cryptoactifs, où le collatéral est stocké sur la chaîne de blocs (on chain).
Les stablecoins décentralisés algorithmiques.
Fin octobre 2025, la capitalisation de marché des stablecoins atteint 312 milliards de dollars (plus de 269 milliards d’euros), dont 95 % pour les stablecoins centralisés. Nous nous concentrons sur ces derniers.
Concernant la composition des réserves, les réglementations diffèrent selon les pays. La loi Genius, adoptée par le Congrès des États-Unis en juillet 2025, dispose que chaque stablecoins de paiement doit être garanti à 100 % par des actifs liquides, principalement des dollars américains, des bons du Trésor ou des dépôts bancaires. Il prévoit également des rapports mensuels détaillés et un audit annuel obligatoire pour les grands émetteurs.
Dans l’Union européenne (UE), le règlement MiCA impose des conditions beaucoup plus strictes. Il exige que les actifs soient entièrement garantis par des réserves conservées dans des banques européennes et soumis à des audits indépendants au moins deux fois par an.
Bien que plus « stables » en apparence que d’autres cryptoactifs, les stablecoins échouent à satisfaire les trois principes qui, selon la littérature monétaire institutionnelle, définissent la stabilité d’un système monétaire : l’unicité, l’élasticité et l’intégrité.
Historiquement, le principe d’unicité garantit que toutes les formes de monnaie
– billets, dépôts, réserves… – sont convertibles à parité, assurant ainsi une unité de compte stable. Les stablecoins, émis par des acteurs privés et non adossés à la monnaie centrale, mettent fin à cette parité : leur valeur peut s’écarter de celle de la monnaie légale, introduisant un risque de fragmentation de l’unité monétaire.
Le principe d’élasticité renvoie à la capacité du système monétaire à ajuster l’offre de liquidités aux besoins de l’économie réelle. Contrairement aux banques commerciales, qui créent de la monnaie par le crédit sous la supervision de la banque centrale, les émetteurs de stablecoins ne font que transformer des dépôts collatéralisés : ils ne peuvent ajuster la liquidité aux besoins de l’économie.
Le principe d’intégrité suppose un cadre institutionnel garantissant la sécurité, la transparence et la légalité des opérations monétaires. Les stablecoins échappent à la supervision prudentielle, exposant le système à des risques de blanchiment, de fraude et de perte de confiance.
L’existence et la qualité des réserves sont fragiles. Il faut garder à l’esprit que les actifs mis en réserve ne sont pas équivalents à la monnaie banque centrale : ils sont exposés aux risques de marché, de liquidité et de contrepartie.
Aux États-Unis, les émetteurs (comme Tether ou Circle) publient des attestations périodiques, mais ne produisent pas d’audit en temps réel. Rappelons qu’en 2021, Tether s’était vu infliger une amende de 41 millions de dollars (plus de 35 millions d’euros) par la Commodity Futures Trading Commission des États-Unis, pour avoir fait de fausses déclarations sur la composition de ses réserves. Les réserves sont souvent fragmentées entre plusieurs juridictions et déposées dans des institutions non réglementées.
À lire aussi : Où placer les stablecoins parmi les cryptoactifs ?
Le modèle économique des émetteurs de stablecoins repose sur la rémunération de leurs réserves. Il va de soi qu’ils n’ont aucun intérêt à détenir des actifs sûrs et à faible rendement. Imaginons que survienne une annonce qui sèmerait le doute sur la qualité des réserves. En l’absence d’accès aux facilités de la banque centrale ou à une assurance-dépôts, une perte de confiance se traduirait mécaniquement par une panique et un risque de perte d’ancrage.
Cette fragilité mine l’une des fonctions essentielles de la monnaie : la réserve de valeur.
Les stablecoins apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États. En 2025, 99,0 % des stablecoins sont adossés au dollar en termes de capitalisation de marché. En diffusant des stablecoins adossés au dollar dans les économies émergentes ou faiblement bancarisées, les stablecoins favorisent une dollarisation numérique qui érode la souveraineté monétaire des banques centrales.
Pour l’UE, le risque est celui d’une colonisation monétaire numérique : des systèmes de paiement, d’épargne et de règlement opérés par des acteurs privés extra-européens. Les stablecoins conduisent également à une privatisation du seigneuriage – la perception de revenus liés à l’émission de monnaie, normalement perçus par la Banque centrale européenne (BCE). Les émetteurs de stablecoins captent la rémunération des actifs de réserve sans redistribuer ce rendement aux porteurs. Ce modèle détourne la fonction monétaire : la liquidité publique devient une source de profit privé, sans contribution à la création de crédit ou à l’investissement productif.
L’interconnexion entre stablecoins et finance traditionnelle accroît le risque systémique. En cas de perte de confiance, un mouvement de panique pourrait pousser de nombreux détenteurs à échanger leurs stablecoins, mettant en péril la capacité des émetteurs à rembourser. Or, les détenteurs ne sont pas protégés en cas de faillite, ce qui renforce le risque de crise systémique.
Le marché des stablecoins est très lié au marché de la dette souveraine états-unienne. La demande supplémentaire de stablecoins a directement contribué à l’augmentation des émissions de bons du Trésor à court terme (T-bills) aux États-Unis et à la baisse de leur rendement. La liquidation forcée de dizaines de milliards de T-bills perturberait le marché états-unien de la dette à court terme.
Les stablecoins accroissent le risque de crédit, car comme les autres cryptoactifs, ils offrent un accès facilité à la finance décentralisée. Or, les possibilités d’effets de levier – autrement dit d’amplification des gains et des pertes – sont plus forts dans la finance décentralisée que dans la finance traditionnelle.
Mentionnons le risque de fraude : selon le Groupe d’action financière (Gafi), les stablecoins représentent désormais la majeure partie des activités illicites sur la chaîne de blocs, soit environ 51 milliards de dollars (44 milliards d’euros) en 2024.
Les stablecoins fragilisent la souveraineté des États, introduisent une fragmentation monétaire et ouvrent la voie à de nouvelles vulnérabilités financières. Pour l’Europe, l’alternative réside dans le développement d’une monnaie numérique de banque centrale, où l’innovation se conjugue avec la souveraineté. La vraie innovation ne réside pas dans la privatisation de la monnaie, mais dans l’appropriation par les autorités monétaires des outils numériques.
Cette contribution est publiée en partenariat avec les Journées de l’économie, cycle de conférences-débats qui se tiendront du 4 au 6 novembre 2025, au Lyon (Rhône). Retrouvez ici le programme complet de l’édition 2025, « Vieux démons et nouveaux mondes ».
Céline Antonin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:41
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Le gel du fonctionnement du gouvernement fédéral des États-Unis, depuis le 1er octobre, se traduit notamment par la réduction de différentes aides sociales et par la suspension du versement des salaires de nombreux fonctionnaires. Alors que la natalité est déjà nettement inférieure au seuil de renouvellement des générations, ce contexte pesant pourrait pousser de nombreuses personnes à remettre à plus tard leur projet parental, voire à y renoncer purement et simplement. En outre, la situation actuelle accroît les risques en matière de santé maternelle et néonatale.
C’est un fait : la natalité aux États-Unis est en berne depuis plusieurs années, avec un taux de 1,6 enfant par femme, alors que le seuil de renouvellement des générations est estimé à environ 2,05 enfants par femme, hors immigration. Cette dénatalité s’explique dans une large mesure par les difficultés économiques : augmentation du coût de la vie et de l’éducation des enfants, prix excessifs des logements, des garderies et des assurances privées, remboursement des prêts d’études pendant plusieurs années, etc.
Donald Trump espère inverser la tendance grâce aux mesures financières incitatives contenues dans sa « grande et belle loi budgétaire » promulguée en juillet dernier, mais il faut rappeler que des mesures plus ou moins similaires n’ont pas eu l’effet escompté dans d’autres pays du monde. La politique nataliste de Trump a d’ailleurs fait l’objet de certaines critiques : elle favoriserait la reproduction des riches et des Blancs, au détriment des pauvres et des Noirs, avec un risque d’eugénisme, et creuserait les inégalités raciales en matière de richesse.
Le shutdown qui perdure depuis le 1er octobre aux États-Unis faute d’accord entre les républicains et les démocrates sur le budget fédéral pourrait accroître le déclin de la natalité dans le pays, conduisant certains à renoncer à leur projet parental ; plus grave encore, la mortalité maternelle et néonatale pourrait augmenter.
Dans un contexte de shutdown, certains fonctionnaires fédéraux dont les activités sont jugées « non essentielles » sont mis au chômage technique avec leur salaire gelé, pendant que d’autres continuent de travailler. Les uns comme les autres sont rétroactivement rémunérés après le déblocage du shutdown.
En 2013, sous la présidence de Barack Obama, le shutdown avait duré 16 jours. Près de 800 000 fonctionnaires fédéraux avaient été placés au chômage technique. Neuf mois plus tard, la capitale américaine avait connu un pic de natalité, avec une hausse de 30 % des naissances par rapport à la normale à l’époque. Le taux de natalité resta toutefois en berne au niveau national.
Le shutdown qui se poursuit actuellement va-t-il générer un baby-boom, du moins chez les fonctionnaires fédéraux placés au chômage technique ?
Si près de 700 000 fonctionnaires fédéraux sont au chômage technique depuis le 1er octobre, la situation est plus tendue qu’en 2013 et qu'en décembre 2018-janvier 2019, quand le shutdown avait duré 35 jours.
La paralysie budgétaire qui s’étire depuis le 1er octobre est déjà plus longue que celle de 2013, et risque de durer plus longtemps que celle de 2018-2019, car chaque partie semble déterminée à camper sur ses positions. Faute de salaire, certains employés fédéraux sont déjà en situation de précarité et font appel à des banques alimentaires ou à des prêts pour payer leur loyer. Plus de 4 000 fonctionnaires fédéraux ont aussi reçu un avis de licenciement.
Pis : la Maison Blanche a annoncé qu’elle comptait en licencier plus de 10 000 si le shutdown se poursuivait. Bien qu’une juge fédérale ait temporairement bloqué ces licenciements, dans un tel climat d’inquiétude économique de nombreux fonctionnaires fédéraux pourraient différer leur projet parental, voire y renoncer.
WIC (Women, Infants and Children) est un programme fédéral d’aide alimentaire et d’éducation à la nutrition et à l’allaitement destiné aux ménages à faibles revenus, quelle que soit la nationalité des bénéficiaires. Il s’adresse aux femmes enceintes ou allaitantes, aux mères en période post-partum ainsi qu’aux enfants de moins de cinq ans présentant un risque de carence nutritionnelle, c’est-à-dire un risque lié à un déséquilibre alimentaire susceptible d’entraîner des problèmes de santé et des maladies.
Durant l’année fiscale 2024, près de 6,7 millions de femmes et d’enfants ont pu bénéficier, chaque mois, des services de ce programme.
À lire aussi : 2 in 5 US babies benefit from the WIC nutrition program
Mi-octobre, l’administration Trump a alloué au programme WIC 300 millions de dollars, en provenance des recettes douanières, afin d’assurer la continuité de son fonctionnement durant le shutdown. Selon la National WIC Association (NWA), ces fonds ne seront plus suffisants au 1ᵉʳ novembre. La NWA réclame 300 millions de dollars (soit, environ 259 millions d’euros) supplémentaires pour garantir la pérennité des différents services de WIC durant les deux premières semaines de novembre.
Et si le shutdown se prolongeait et WIC se retrouvait à court de fonds ?
Le département de la santé du New Jersey a déjà exprimé ses craintes.
Dans le Michigan, une mère célibataire bénéficiaire de WIC, comme beaucoup d’autres, a fait part de son inquiétude :
« Les gens dépendent de WIC pour leurs besoins essentiels : lait, œufs, pain. Ne pas savoir si l’on pourra bénéficier de cette aide le mois prochain… est très angoissant. »
Dans certains États fédérés, les bureaux de WIC sont déjà impactés par la paralysie budgétaire. Au Kansas, un bureau de WIC a dû fermer ses portes, tandis que le département de la santé du Mississippi a été contraint de mettre de nombreuses demandes d’inscription à WIC sur liste d’attente.
Une telle situation met en péril la santé de nombreuses femmes enceintes. En effet, selon un rapport de l’Unicef publié en 2023 et intitulé « Dénutries et oubliées : Une crise nutritionnelle mondiale pour les adolescentes et les femmes », les femmes enceintes ayant une mauvaise alimentation sont plus susceptibles de contracter des infections et de connaître des complications mortelles pendant la grossesse.
De surcroît, les complications résultant du shutdown pourraient avoir une prévalence plus élevée chez les femmes noires bénéficiaires de WIC par rapport aux femmes blanches. Cette hypothèse peut être déduite des données du Centre pour le contrôle et la prévention des maladies, selon lesquelles les femmes noires aux États-Unis présentent un risque de mortalité lié aux complications de la grossesse ou de l’accouchement trois fois supérieur à celui des femmes blanches. Comme le souligne Ebony Hilton, anesthésiste à l’Université de Virginie et experte des disparités dans l’accès aux soins de santé, « Il a été maintes fois démontré que les femmes noires ne reçoivent pas le même niveau de soins. »
En l’absence de financement pour assurer la continuité du programme WIC, les carences nutritionnelles dont seraient victimes les femmes enceintes pourraient également avoir un impact négatif sur la santé de leur enfant à naître : naissance prématurée, faible poids, vulnérabilité aux maladies, augmentation du risque de mortalité néonatale, etc.
À lire aussi : Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés
Une politique d’accueil favorable aux immigrés pourrait permettre aux États-Unis de faire face au déclin de la natalité dans le pays. Mais Donald Trump est connu pour son hostilité envers les immigrés, qu’ils soient en situation régulière ou non, à l’exception notable de certains, comme les Afrikaners, les Blancs (descendants de colons néerlandais ou français) d’Afrique du Sud. Depuis son retour au pouvoir, Trump mène une politique anti-immigration agressive, avec des arrestations et des expulsions massives d’immigrants illégaux ou présumés l’être.
À lire aussi : Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?
L’un des principaux points de désaccord ayant conduit au shutdown concerne précisément la couverture médicale de certains immigrés. Les démocrates souhaitent que les immigrés présents légalement (les réfugiés, les demandeurs d’asile, etc.) aux revenus modestes puissent continuer à percevoir des subventions pour souscrire à l’assurance santé dite « Obamacare », officiellement connue sous le nom d’Affordable Care Act (ACA), afin de pouvoir accéder à des soins de base. Ce dispositif a été supprimé pour cette population par la loi budgétaire de juillet dernier. Or, les républicains refusent d’accéder à la requête des démocrates, au faux motif que ces derniers réclameraient une couverture santé gratuite pour les immigrés en situation irrégulière.
À lire aussi : How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means
Sans la couverture médicale de l’ACA, le coût de l’éducation d’un enfant, ajouté à celui de la souscription à une assurance santé privée, pourrait constituer un facteur déterminant pour les immigrés légalement présents à faibles revenus dans le cadre de leur projet parental. Il est donc à craindre que certains des 1,4 million de migrants présents légalement, qui ne seront plus couverts par l’ACA, ainsi que les femmes immigrées qui ne remplissent pas les conditions de revenu pour bénéficier du programme WIC, renoncent à avoir des enfants, ou en aient moins.
In fine, dans le contexte actuel du shutdown ou après son déblocage, des inégalités économiques et raciales risquent, de nouveau, de se creuser en matière de procréation aux États-Unis.
Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 15:39
María Teresa Tejedor Junco, Catedrática de Microbiología, Universidad de Las Palmas de Gran Canaria
Nous associons les virus à des maladies infectieuses. Mais des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.
Nous ne devons pas analyser la nature d’un point de vue anthropocentrique. De plus, dans de nombreuses occasions, nous ne disposons pas des connaissances suffisantes pour évaluer le rôle que jouent certains éléments (vivants ou inanimés) dans un écosystème donné.
Mais il est certain que les virus ont « mauvaise réputation ». En général, lorsque nous pensons aux microorganismes, la première chose qui nous vient à l’esprit, ce sont les maladies. Puis, petit à petit, nous nous souvenons d’aspects bénéfiques. Par exemple, la production d’antibiotiques (certaines moisissures et bactéries), des aliments comme le yaourt (bactéries) ou des boissons comme la bière (levures).
Et les virus, à quoi servent-ils ? On pourrait penser qu’ils ne servent qu’à causer des maladies… Ou alors, pas seulement ? Avons-nous des virus dans notre organisme même quand nous ne sommes pas malades ?
À lire aussi : Les virus, ces messagers invisibles de la conversation du vivant
Impossible de résumer dans un seul article tout ce que les virus apportent à notre existence. Mais nous pouvons passer en revue quelques exemples.
Le rétinoblastome est un type de cancer de l’œil qui touche principalement les enfants. Il peut entraîner la cécité et, s’il ne répond pas au traitement, il faut alors retirer les yeux pour éviter qu’il ne se propage à l’ensemble du corps.
Un adénovirus génétiquement modifié a été utilisé avec succès pour traiter cette maladie. Il attaque et élimine les cellules cancéreuses sans affecter les cellules saines.
Il existe également des essais visant à utiliser des virus modifiés dans le traitement d’autres types de tumeurs : mélanomes, glioblastomes. Et même pour traiter le cancer du col de l’utérus, causé par un autre virus.
Parmi les maladies chroniques, l’utilisation de bactériophages (virus qui attaquent les bactéries) est à l’étude pour le traitement de la mucoviscidose et de la colite ulcéreuse.
Quelques études montrent que les personnes en bonne santé ont une composition en phages dans leur intestin différente de celle des personnes atteintes de colite ulcéreuse (appelée également rectocolite hémorragique, ndlr) ou de la maladie de Crohn, deux troubles intestinaux graves.
Cela pourrait également être lié à l’efficacité de la transplantation fécale. Chez la souris, la présence d’un virus entérique semble compenser la fonction bénéfique du microbiome intestinal.
Il existe même un virus, appelé GBV-C, qui contribue à améliorer le pronostic des malades atteints du sida. Les personnes porteuses de ce virus, apparenté à celui de l’hépatite mais qui ne provoque aucune maladie, ne sont pas à l’abri du sida. Cependant, elles présentent moins de symptômes et la mortalité dans ce groupe est plus faible.
La phagothérapie consiste à utiliser des bactériophages pour traiter des infections graves. Elle constitue une alternative à l’utilisation d’antibiotiques, en particulier dans le cas d’infections où les bactéries sont résistantes à la plupart des antibiotiques disponibles.
Ces virus sont très spécifiques. Ils peuvent attaquer les bactéries pathogènes sans avoir aucun effet sur notre microbiome « bénéfique ».
En 1919, D’Herelle avait déjà recours à des phages pour traiter les infections. Actuellement, il s’agit d’un type de traitement très contrôlé, qui n’est utilisé que dans les cas d’infections très graves et lorsqu’il n’existe aucune autre option.
D’autre part, les phages pourraient constituer une alternative à l’utilisation d’antibiotiques, ce qui réduirait ainsi la pression sélective et l’apparition de résistances.
Plusieurs entreprises travaillent au développement de « cocktails de phages » destinés à être administrés aux animaux d’élevage. Efficaces contre les bactéries pathogènes les plus courantes chez chaque espèce, ils améliorent la santé des animaux. Ils contribuent également à réduire le recours aux antibiotiques.
Les industries alimentaires sont particulièrement intéressées par l’utilisation des phages contre les principales bactéries pathogènes d’origine alimentaire. Ils pourraient même être utilisés pour désinfecter les installations de production.
Leur utilisation est également proposée pour lutter contre les microorganismes qui altèrent les aliments.
Les insecticides chimiques présentent plusieurs inconvénients. D’une part, ils génèrent des résistances. D’autre part, ils peuvent affecter des espèces d’insectes utiles et être toxiques pour l’être humain et d’autres vertébrés.
Les baculovirus présentent le grand avantage d’être hautement spécifiques à certaines espèces d’insectes. Ils ne sont pas pathogènes pour les plantes ni pour les vertébrés. De plus, ils n’affectent pas les autres espèces d’insectes.
Ils forment une capsule protéique qui les protège de l’environnement. Ils infectent les cellules de l’intestin moyen de l’organisme parasite et passent directement dans l’hémolymphe, ce qui provoque la mort de l’insecte responsable du ravage.
Outre leur utilisation comme bioinsecticides, les baculovirus sont également utilisés pour fabriquer des vaccins (à usages vétérinaires, ndlr). Pour ce faire, le gène d’intérêt est introduit dans le virus, puis l’insecte est infecté, ce qui le transforme en une petite « bio-usine » qui produit les protéines d’intérêt.
Certains vaccins mis au point contre le SARS-CoV-2 utilisent des adénovirus (les vaccins AstraZeneca et Janssen, notamment, reposent sur cette technologie mais il ne s’agit pas des vaccins recommandés aujourd’hui par le ministère de la santé français contre le Covid-19, ndlr). Des adenovirus ont également été utilisés pour fabriquer un vaccin contre Ebola et des recherches sont menées chez l’animal pour développer des vaccins contre Zika.
Un vaccin polyvalent contre la grippe aviaire et la maladie de Newcastle a été créé à partir d’un virus recombinant.
On estime qu’il existe entre 1028 et 1030 virus dans les océans. Ils constituent des éléments clés des écosystèmes marins. Ils peuvent infecter les animaux, les algues et les plantes marines ou d’autres microorganismes.
La grande majorité de ces virus sont des bactériophages. Certains auteurs ont calculé que les virus libèrent 145 gigatonnes de carbone par an dans les océans tropicaux et subtropicaux. Ils constituent donc un élément fondamental du cycle du carbone dans les écosystèmes.
De plus, ils sont responsables du transfert horizontal de gènes dans les océans.
En 2017, une thérapie génique à base d’adénovirus a été approuvée aux États-Unis pour traiter une maladie héréditaire rare causant la cécité.
Les patients présentent une mutation au niveau des deux copies d’un gène. Cela les empêche de synthétiser une enzyme essentielle au développement normal de l’œil. À l’aide d’un adénovirus modifié, une copie normale du gène est ajoutée directement dans la rétine. Une seule injection suffit pour leur redonner la vue.
Les virus en général, et pas seulement les virus marins, sont de grands générateurs de diversité génétique. Ils ont généralement un taux de mutation élevé, ont tendance à se mélanger entre eux et peuvent s’intégrer (et se désintégrer) dans le génome de leur hôte.
Ils confèrent aux bactéries la capacité de résister à certains antibiotiques ou de produire des toxines, ce qui est bon pour elles, mais pas pour nous. Il existe également des virus insérés dans le génome des vertébrés, y compris des humains. Ils semblent être impliqués dans la régulation génétique et peuvent contribuer à l’apparition de nouvelles fonctions.
Le plus surprenant chez les virus est peut-être leur rôle dans le développement de la vie humaine. Le génome humain contient 8 % d’ADN viral. Il s’agit de restes de rétrovirus qui se sont insérés dans notre ADN au cours de l’histoire de l’humanité. Jusqu’à récemment, on les considérait comme de l’« ADN poubelle ». Cependant, plusieurs études ont démontré leur importance.
Cet ADN viral code une protéine, la syncytine, qui est essentielle à la formation du placenta, l’organe qui permet l’échange de substances entre le sang de la mère et celui du fœtus.
Il existe de nombreux autres aspects dans lesquels les virus contribuent à améliorer notre existence. N’oublions pas que seul un faible pourcentage d’entre eux peut l’aggraver… mais de manière drastique.
María Teresa Tejedor Junco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 11:55
Gaspard Conseil, Docteur en écotoxicologie, attaché temporaire d’enseignement et de recherche à l’Université de Lorraine (UL, ENSAIA, L2A), Université de Lorraine
Damien Banas, Professeur en Agronomie/Hydrobiologie, Université de Lorraine

De l’autre côté du miroir d’eau paisible des étangs, on rencontre en réalité de véritables « fantômes moléculaires » laissés par les pesticides utilisés pour l’agriculture. Même lorsque la substance originelle a été depuis interdite, ses produits de transformation – parfois plus toxiques – peuvent persister longtemps. Et si l’on envisageait les étangs différemment ? Les considérer comme des archives biochimiques des pollutions passées pourrait nous aider à améliorer la surveillance sanitaire et à prendre de meilleurs décisions réglementaires aujourd’hui.
Sous la surface calme des étangs (et, en particulier, des étangs agricoles) se cache une contamination invisible mais omniprésente. Sur l’ensemble des substances chimiques surveillées en milieu aquatique, 86 % sont des produits de transformation de pesticides plutôt que des pesticides eux-mêmes. Ce paysage est dominé par des dérivés du chlorothalonil, pesticide pourtant interdit en Europe et en Suisse depuis 2019, qui ont depuis été détectés d’abord en Suisse, puis signalés au sein d’unités françaises de traitement de l’eau potable.
Ces « fantômes moléculaires », souvent ignorés des suivis classiques, sont pourtant impliqués dans la dégradation silencieuse de la qualité des eaux. Dans une recherche scientifique publiée en 2025, nous avons mis en évidence qu’ils modifient le comportement et le métabolisme de petits crustacés d’eau douce (ici, Gammarus roeseli) utilisés comme sentinelles biologiques.
À la fois témoins et victimes des pollutions chimiques successives de l’environnement, ces organismes livrent une histoire préoccupante, inscrite dans le vivant, que les simples mesures chimiques ne permettent pas de lire.
Les étangs ne sont pas de simples plans d’eau, mais des archives vivantes de l’activité humaine environnante. Souvent connectés aux rivières, ils s’imprègnent de l’héritage chimique des pratiques agricoles, à travers les métabolites de produits phytopharmaceutiques, ou produits de transformation (PT), qui en résultent.
Quand bien même un pesticide est amené à être retiré du marché, son empreinte chimique demeure. Des PT issus de la dégradation d’une molécule mère peuvent ainsi persister longtemps dans l’eau, dans les sédiments ou dans les organismes vivants. Longtemps invisibles, car peu connus et peu étudiés, ils rappellent que la contamination environnementale n’est pas qu’une affaire du présent, mais aussi une mémoire du passé.
Nous vivons ainsi avec les cicatrices laissées par des produits chimiques utilisés à d’autres époques, lorsque leurs effets étaient encore mal connus. Et pourtant, nous continuons de répéter la même erreur : autoriser la commercialisation de produits aux effets mal compris. Nous déléguons alors de nouveaux problèmes à nos enfants.
L’herbicide atrazine, interdit depuis 2003, illustre très bien le problème. Ses métabolites sont encore détectés vingt ans après son interdiction dans de nombreuses masses d’eau françaises.
Les progrès de la recherche et les nouvelles connaissances acquises ont conduit à des réglementations plus strictes, comme le Règlement européen (CE) no 1107/2009, qui exclut l’autorisation de mise sur le marché de substances persistantes ou qui s’accumulent dans les organismes.
La relation entre l’humain et son environnement reste complexe. L’histoire que nous commençons à lire grâce aux outils analytiques mobilisés en écotoxicologie, qui intègrent à la fois des approches chimiques et biologiques, devrait éclairer nos choix présents et nous permettre d’éviter de les regretter demain.
Le fongicide chlorothalonil, interdit en 2019, fournit un exemple récent de ce décalage entre décision réglementaire et réalité environnementale. Son métabolite R471811 est aujourd’hui retrouvé dans de nombreuses eaux de surface et souterraines européennes. Il n’existe a priori pas de preuves qu’il présente un risque avéré, mais cela pourrait être réévalué dans cinq, dix ou trente ans.
Ces reliquats chimiques révèlent l’inertie propre des cycles environnementaux, souvent difficiles à cerner ou à mesurer. Ils soulignent aussi les limites de nos politiques de retrait, capables de réagir vite, mais impuissantes face à la persistance du passé et à la multiplicité des substances chimiques encore autorisées (422 en Europe en octobre 2025.
Les milieux aquatiques sont exposés à une mosaïque de contaminants que les scientifiques appellent exposome chimique, c’est-à-dire l’ensemble des substances auxquelles un organisme ou un écosystème est exposé au cours de sa vie.
Si les substances actives sont surveillées via la réglementation européenne, les PT passent souvent sous le radar. Un seul pesticide peut engendrer plusieurs molécules filles, parfois plus durables et plus mobiles que la molécule mère. Les connaissances sur leur toxicité sont encore très lacunaires, avec peu de tests de toxicité, peu de standards analytiques et très peu de données sur leurs effets cumulés. Ainsi, une part importante du risque nous échappe encore.
Dans un travail antérieur, mené en 2024, sur les étangs agricoles du nord-est de la France, nous avions déjà montré que plus d’une molécule détectée sur deux était un PT encore dépourvu de profil écotoxicologique connu. En d’autres termes, une partie du risque reste littéralement dans l’ombre.
À lire aussi : « L’envers des mots » : Exposome
Les grands cours d’eau font l’objet de suivis réguliers. Les étangs, eux, sont les parents pauvres de la limnologie (c’est-à-dire la science des lacs) et restent peu étudiés. Pourtant, ils ponctuent nos paysages et abritent souvent une large biodiversité constituée de poissons, d’oiseaux, de batraciens, de reptiles, d’insectes et de végétaux divers. Ils jouent aussi un rôle d’interface entre terres agricoles et nappes souterraines. Exposés aux polluants au fil du temps, ils jouent un rôle de « mémoire tampon » entre terres cultivées et milieux naturels, entre les eaux de surface et les nappes souterraines.
Pour explorer cette mémoire chimique, notre équipe a eu recours à une approche de biosurveillance active, où l’on utilise le vivant pour évaluer la qualité de l’eau. Cette méthode consiste à confronter des organismes sentinelles à l’environnement étudié afin d’observer leurs réactions biologiques, en parallèle de l’analyse chimique dite de l’exposome, décrit précédemment (l’ensemble des substances auxquelles le milieu est exposé, et de facto, nous aussi).
Croiser ces deux lectures, chimique et biologique, permet d’obtenir un indicateur global de l’état de santé d’une masse d’eau bien plus représentatif que la simple mesure de concentrations d’une liste de contaminants strictement définis.
Concrètement, nous avons placé dans sept étangs lorrains implantés le long d’un gradient de terres agricoles aux pratiques diversifiées (sans activité agricole, en agriculture biologique ou en agriculture conventionnelle) de petits crustacés d’eau douce, Gammarus roeseli, enfermés dans de fines cages perméables.
Ces gammares, discrets habitants des rivières, sont de véritables sentinelles biologiques. Leur respiration, leurs mouvements et leurs activités enzymatiques reflètent fidèlement la qualité du milieu où ils vivent. Pendant une semaine, ces organismes ont été exposés à l’eau et leur état de santé a été suivi. En parallèle, dans chaque étang, 136 substances (herbicides, insecticides, fongicides, et leurs PT) ont été recherchées.
Les résultats montrent une prédominance écrasante des produits de transformation, qui représentaient 86 % des contaminants détectés, dominés par les dérivés du chlorothalonil et du métazachlore.
Les gammares ont survécu, mais leur comportement et leur métabolisme ont changé. Ralentissement des déplacements, troubles de la respiration et activation des mécanismes de détoxification traduisent le signal précoce d’un potentiel stress toxique. Ces réactions biologiques confirment que la contamination, bien qu’étant une affaire de chimie, s’inscrit profondément dans le vivant. En d’autres termes, les organismes racontent ce que les analyses chimiques ne suffisent pas toujours à voir.
Reste à savoir comment intégrer au mieux ces signaux biologiques et cette mémoire chimique dans les décisions publiques et réglementaires.
Aujourd’hui, la surveillance réglementaire reste essentiellement centrée sur les substances actives autorisées. Pourtant, le risque dépasse largement ces molécules. Il s’étend dans le temps, change de forme, interagit avec d’autres contaminants et varie selon les conditions environnementales. L’environnement et sa biodiversité sont aussi le siège d’une diversité de voies de transformation et de transfert des contaminants.
La surveillance doit donc évoluer, élargir les listes de substances suivies, développer les outils biologiques, et, surtout, agir avec précaution dans un contexte où tout ne peut être mesuré ni anticipé : il serait illusoire de vouloir tout tester et suivre toutes les substances possibles et imaginables. L’enjeu est donc surtout de prioriser les composés les plus à risque et de protéger les milieux les plus vulnérables.
Il existe ainsi trois leviers pour mieux protéger les milieux aquatiques :
élargir la couverture analytique, c'est-à-dire les méthodes et techniques utilisées pour identifier et quantifier les PT issus de la dégradation des pesticides dans les suivis de routine,
renforcer les outils biologiques capables de traduire la complexité chimique en signaux écologiques mesurables, par exemple, le recours à des organismes sentinelles,
enfin, prioriser localement les actions de gestion (par exemple, rotation des cultures, zones tampons sans traitement, meilleure gestion des effluents et du ruissellement, ou encore l'aménagement de réseaux de drainage) adaptées aux usages et aux vulnérabilités des territoires.
De récentes observations nous montrent que les dynamiques observées en Lorraine ressemblent à celles de sites agricoles en Suisse, dans le canton de Genève. Nous menons depuis l’été 2025 des recherches avec la Haute école du paysage, d’ingénierie et d’architecture de Genève (Hépia) à ce sujet.
Ces enjeux de pollution franchissent donc les frontières, mais les solutions doivent émerger localement, en combinant restauration de zones tampons (qui permettent d’atténuer les transferts de contaminants d’origine agricole vers les milieux aquatiques), diversification des pratiques et surveillance chimique et biologique intégrée.
Les étangs sont les miroirs de nos paysages agricoles, mais en constituent surtout des archives. Ils accumulent, filtrent et témoignent des usages passés. Reconnaître cette mémoire chimique, c’est accepter que certaines traces mettent des décennies à s’effacer.
Les produits de transformation des pesticides ne sont ni marginaux ni nouveaux. Ils incarnent une génération de micropolluants qui s’ancre dans la mémoire chimique de nos agroécosystèmes. Les inclure, les considérer, c’est comprendre qu’un étang, aussi petit soit-il, peut raconter une histoire de pollutions passées, mais aussi celle d’une vigilance à retrouver.
À l’heure où les politiques de transition agricole s’accélèrent, prendre en compte ces produits de transformation est essentiel pour éviter que ces fantômes chimiques ne pèsent sur les générations futures. Ce que nous faisons aujourd’hui s’inscrira dans la mémoire environnementale de demain. À nous de choisir l’histoire que ces étangs raconteront aux générations futures.
Gaspard Conseil a reçu des financements de l'Office français de la biodiversité (OFB).
Damien Banas a coordonné le projet CABARETox (ContAmination des matrices Biotiques et Abiotiques par les Résidus phytopharmaceutiques en Étangs : volet écotoxicologie), financé par l’Office Français de la Biodiversité (OFB), dont sont issus les résultats présentés dans le présent article.
30.10.2025 à 11:10
Sébastien Barot, Chercheur en écologie, IEES-Paris, vice-président du conseil scientifique de la Fondation pour la recherche sur la biodiversité (FRB), Institut de recherche pour le développement (IRD)
Souvent assimilée à un courant politique, l’écologie est avant tout une science à part entière, qui étudie les interactions du vivant avec son environnement. Pourtant, en France, ce terme est devenu symbole de militantisme au risque d’invisibiliser le travail précieux des écologues, alors même que leurs connaissances sont indispensables pour affronter la crise environnementale en cours.
Dans « l’Écologie est une science », publié par les éditions Belin, Sébastien Barrot, directeur de recherche à l’IRD, présente son domaine de recherche, encore trop méconnu du grand public. Nous reproduisons ci-dessous un extrait de son avant-propos.
À 10 ans, quand on me demandait quel métier je souhaitais faire plus tard, je répondais « Un -logue quelconque. » Je disais par là que je voulais devenir archéologue ou paléontologue. J’ai mal tourné, je suis devenu écologue, chercheur en écologie, et j’ai commencé à écrire ce livre parce que personne ne sait ce que ça veut dire. Si tout le monde a une idée, juste ou non, de ce qu’est un chercheur, quasiment personne ne sait en France, en dehors du cadre académique, que l’écologie est une science.
Même aujourd’hui, en pleine crise environnementale, je dois expliquer les études que j’ai faites (un master et une thèse en écologie), et on me le fait répéter au moins trois fois car ça ne paraît pas possible. Les gens pensent souvent que j’ai étudié la biologie. Cela paraît beaucoup plus sérieux, mais ce n’est pas le cas. D’autres personnes imaginent que la seule préoccupation d’un écologue est de protéger les petits oiseaux, ou que je développe de nouveaux moyens pour recycler les déchets.
Ce sont deux thématiques importantes, cependant l’écologie scientifique n’a pas uniquement pour but la protection de la nature, et seul le recyclage des déchets organiques entre, en fait, dans le champ des compétences de l’écologie puisqu’il fait intervenir des organismes décomposeurs, comme des bactéries ou des vers de terre.
À lire aussi : L’écologie expliquée aux enfants et aux ados
La méconnaissance de l’écologie scientifique vient de trois facteurs complémentaires.
Tout d’abord, l’écologie est une science relativement jeune. Le mot a été inventé par Ernst Haeckel en 1866, mais les sciences écologiques ne se sont vraiment développées dans le monde académique qu’après la Seconde Guerre mondiale pour les Anglo-Saxons et durant les années 1970 en France. C’est donc un développement très récent, ce qui signifie que les bases de cette science doivent encore être consolidées, et sa structure affinée. Le système académique étant très conservateur, l’écologie scientifique a parfois du mal à trouver sa place parmi les disciplines plus anciennes. Malgré la gravité des problèmes environnementaux actuels, et contrairement à ce qu’on pourrait penser, il est souvent difficile d’augmenter le volume des enseignements d’écologie du primaire à l’université, et la recherche en écologie n’est pas particulièrement bien financée.
De plus, en France, le terme « écologie » est utilisé aussi bien pour désigner une science que des mouvements politiques environnementalistes ou verts, entraînant de fait une confusion entre le travail de recherche et l’action politique, ou même le militantisme. Il est important de souligner que, la plupart du temps, lorsque quelqu’un intervient dans les médias pour parler de protection de la nature, il s’agit d’un militant ou d’une militante (ou parfois même d’un chercheur d’une autre discipline !). Si ces derniers utilisent souvent les connaissances développées par l’écologie scientifique, ils ne sont pas chercheurs en écologie pour autant.
On pense facilement à de grandes figures, comme Hubert Reeves, qui ont joué et jouent un rôle important et utile dans la dissémination des savoirs et idées écologiques. Ces grandes figures médiatiques mêlent toujours dans leurs discours des messages environnementalistes et d’autres plus fondamentaux et proches des sciences écologiques. Tout cela entraîne des conséquences globalement positives, mais contribue à invisibiliser la science écologique et le travail des chercheuses et chercheurs qui la pratique. D’autant que dans les autres sciences (biologie, physique, chimie…), quand les médias ont besoin d’éclairages, c’est bien à un spécialiste du domaine que l’on fait appel en général.
Enfin, l’écologie est une science intégrative. C’est-à-dire qu’elle utilise les autres sciences (biologie, géologie, climatologie, chimie…) et qu’il est donc difficile de l’identifier en elle-même. Ce fonctionnement fait sa force, mais il rend son positionnement plus difficile. En effet, les systèmes académique et médiatique fonctionnent beaucoup « par boîtes » et la mauvaise identification d’une science et de ses spécialistes complique la prise en compte des connaissances qu’elle développe.
Cela explique en partie que les sociétés humaines soient si lentes à prendre des mesures pour atténuer la crise de la biodiversité et qu’elle reste moins bien prise en compte que la crise climatique par les pouvoirs publics (même si de ce côté-là, cela avance, bien que beaucoup trop lentement).
À lire aussi : La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier
Ma définition préférée de l’écologie est la suivante : c’est la science qui étudie les interactions entre les êtres vivants (par exemple, entre les espèces de plantes d’une prairie) et leur environnement physico-chimique (par exemple, entre les plantes de cette prairie et les caractéristiques du sol comme son pH ou sa teneur en azote) et les conséquences de ces interactions à toutes les échelles temporelles (de la seconde à des millions d’années) et spatiales (de l’agrégat de sol d’un millimètre à la biosphère) possibles. Cette définition peut paraître un peu abstraite mais elle prendra tout son sens au cours du livre.
Il est important de retenir que l’écologie traite bien d’organismes vivants, tout en étant distincte de la biologie. Cette dernière a tendance à étudier le fonctionnement interne des êtres vivants. Historiquement, à l’aide de moyens techniques de plus en plus sophistiqués, la biologie les a découpés en parties de plus en plus petites (l’organe, la cellule, la molécule, le gène) pour analyser la manière dont le fonctionnement interne d’un organisme et de nombreux mécanismes de régulation permet aux organismes de grandir, de survivre et de se reproduire. C’est aussi grâce à la biologie que l’on comprend les mécanismes de développement d’un organisme à partir de ses gènes.
À l’inverse, les sciences de l’univers (géochimie, climatologie, hydrologie…) s’intéressent essentiellement au fonctionnement physico-chimique, aux éléments abiotiques, de l’environnement et de la planète Terre. Par exemple, ces sciences permettent de quantifier les flux d’eau (évaporation, précipitation, ruissellement…) à des échelles variées depuis le mètre carré jusqu’à la planète entière ou encore les flux d’azote, composante chimique essentielle de toute la matière vivante.
L’écologie se trouve exactement à mi-chemin entre la biologie et les sciences de l’univers : elle traite à la fois des organismes vivants et de leur environnement physico-chimique. Elle fait le lien entre les deux et étudie leurs interactions qui sont bidirectionnelles. Les organismes dépendent de leur environnement (température, humidité…) et des ressources qu’ils y puisent. Si les conditions physico-chimiques sont bonnes (ni trop chaud ni trop froid, suffisamment humide…), ils pourront grandir et se reproduire ; si les conditions sont un peu moins bonnes, cela devient plus difficile ; si elles empirent, les organismes ont de grandes chances de mourir. D’une manière peut-être moins évidente, mais tout aussi importante, les organismes modifient leur environnement physico-chimique en y puisant des ressources (CO2, eau et nutriments minéraux pour une plante), par des activités variées (galeries des vers de terre) ou simplement par leur présence (un arbre fait de l’ombre).
L’écologie est une science à part entière qui a développé son propre cadre conceptuel, ses écoles de pensée et ses outils. Elle fonctionne au quotidien comme les autres sciences : il y a des formations (masters, écoles doctorales), des chercheuses et des chercheurs, des laboratoires et des journaux internationaux en anglais spécialisés.
Elle s’appuie cependant, nous l’avons vu, sur de nombreuses sciences, de la biologie à la climatologie, en passant par la physique ou la chimie. Les résultats de ces différents domaines servent d’éléments de contexte et leurs méthodes et outils sont utilisés comme des couteaux suisses modulables pour répondre à des questions propres à l’écologie. Par exemple, l’étude des interactions entre un ver de terre et le sol peut nécessiter de connaître le fonctionnement interne du ver de terre, tel son mode de digestion (biologie), mais aussi l’impact de l’espèce sur la chimie du sol (chimie).
L’écologie peut aussi étudier comment le climat influence la croissance des plantes en prenant en compte la quantité d’énergie apportée par la lumière solaire et utilisable pour la photosynthèse, ou la température et l’humidité de l’air qui influencent la quantité d’eau transpirée par les plantes. Ou encore la manière dont les plantes influencent le climat en fixant plus ou moins de carbone par la photosynthèse ou en renvoyant plus ou moins de vapeur d’eau dans l’atmosphère. Ces résultats peuvent alors servir aux climatologues pour améliorer les prédictions climatiques.
Par ailleurs, l’écologie est indissociable de l’évolution des organismes vivants au sens darwinien, car ils présentent tous une histoire évolutive : ils ont été façonnés par une succession de pressions de sélection et de processus évolutifs qui ont conduit aux caractéristiques actuelles des organismes et ont contribué à leur diversité. De ce fait, les interactions écologiques entre eux ou avec leur milieu physico-chimique ont été façonnées par l’évolution. Il est important de le prendre en compte pour mieux comprendre et interpréter les fonctionnements écologiques actuels.
Ainsi, les plantes ont construit au cours de l’évolution des mutualismes avec leurs pollinisateurs. Étudier cette évolution peut aider à comprendre la pollinisation et ses conséquences. À l’inverse, les interactions écologiques, elles-mêmes, constituent un des principaux moteurs de l’évolution : la sélection naturelle est fondée sur le fait que les organismes les mieux adaptés à une situation écologique donnée (caractéristiques de l’environnement, existence d’un prédateur…) ont plus de descendants si bien que leurs caractéristiques deviennent dominantes au sein de l’espèce du fait de leur transmission génétique.
Dans ce contexte, les mécanismes conférant à certains individus un avantage sont liés à des interactions écologiques : certaines caractéristiques leur permettent de mieux interagir avec les autres organismes ou leur environnement physico-chimique, acquérant ainsi plus de ressources, augmentant leur survie ou leur fécondité. Tous ces mécanismes sont étudiés en écologie. On sait maintenant que l’évolution peut être suffisamment rapide pour interférer avec les processus écologiques à des échelles de temps communes. Cela signifie qu’il ne s’agit pas simplement d’un phénomène ancien qu’il faut étudier pour comprendre les organismes ayant disparu depuis longtemps, mais que les organismes continuent actuellement à évoluer.
Plus généralement, l’écologie aborde des sujets si variés qu’il est nécessaire de la diviser en sous-domaines.
Bien sûr, on peut en classer les différents champs selon le milieu étudié (écologie forestière, écologie aquatique, écologie des sols…), mais il est important de différencier également certaines approches. En effet, une partie importante de l’écologie, l’écologie des populations, se focalise sur les groupes d’individus d’une même espèce qui interagissent entre eux au sein d’un milieu donné (ce qu’on appelle une « population »). Elle se concentre donc sur les individus, sur ce qu’ils font et sur leur démographie (comme on le ferait pour des populations humaines), s’appuyant notamment pour cela sur leur recensement (on peut, par exemple, compter le nombre d’arbres dans une forêt). L’écologie des populations est fortement liée à l’écologie évolutive, qui étudie l’évolution darwinienne des organismes, puisque l’individu est l’unité de base dans tous les processus évolutifs.
Proche de l’écologie des populations, on trouve aussi celle du comportement qui cherche à analyser le comportement des individus au sein d’une population en fonction de leur environnement, avec souvent des interprétations liées à l’évolution darwinienne des organismes. On distingue ensuite l’écologie des communautés qui étudie les interactions entre populations (d’espèces différentes) dans un même milieu. Cela permet d’aborder, par exemple, les relations proie-prédateur, les symbioses, ou de décrire des communautés d’organismes (le nombre d’espèces, leur abondance relative, leurs caractéristiques, et les facteurs qui déterminent tout ça). On arrive alors à l’écologie fonctionnelle qui étudie la manière dont les organismes arrivent à puiser des ressources dans leur milieu et à les transformer en biomasse, ainsi que la quantité de matière et d’énergie qu’ils échangent avec leur milieu…
Enfin, l’écologie des écosystèmes est proche de l’écologie fonctionnelle puisqu’elle étudie la manière dont ils fonctionnent. Un écosystème comprend à la fois l’ensemble des populations en interaction dans un lieu donné et leur milieu physico-chimique (sol, climat…). Il s’agit donc d’intégrer tous les types d’interactions écologiques entre populations ainsi qu’entre elles et leur milieu physico-chimique, et de comprendre comment cela détermine les propriétés émergentes des écosystèmes, telle que leur production primaire. Là où l’écologie des populations est focalisée sur les individus, l’écologie fonctionnelle et celle des écosystèmes étudient plutôt les flux de matière (carbone, azote, eau…) et d’énergie entre les organismes et avec leur milieu. Ce type d’approche permet souvent d’aller vers des échelles spatiales de plus en plus grandes. On peut, par exemple, mesurer la biomasse de la végétation ou la quantité de carbone dans la matière organique du sol à l’échelle du mètre carré, mais aussi d’une prairie, d’une région, d’un continent…
Sébastien Barot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.10.2025 à 15:49
Alex Beattie, Lecturer, Media and Communication, Te Herenga Waka — Victoria University of Wellington

De l’Australie au Danemark, les projets d’interdire TikTok ou Instagram aux adolescents se multiplient. Derrière les arguments de protection des mineurs, ces restrictions d’âge sur les réseaux sociaux traduisent un tournant culturel et moral.
Une vague de projets d’interdictions des réseaux sociaux aux plus jeunes déferle à travers le monde, nourrie par l’inquiétude croissante face aux effets supposés de TikTok, Instagram ou Snapchat sur des esprits jugés vulnérables.
L’Australie a été la première à annoncer des restrictions visant les moins de 16 ans. La Nouvelle-Zélande pourrait bientôt emboîter le pas et au Danemark, la première ministre a déclaré vouloir interdire les réseaux sociaux aux moins de 15 ans, accusant téléphones et plateformes de « voler l’enfance de nos enfants ».
Le Royaume-Uni, la France (le rapport parlementaire, publié en septembre 2025, préconise d’interdire les réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15-18 ans, de 22 heures à 8 heures, ndlt), la Norvège, mais aussi le Pakistan et les États-Unis envisagent ou mettent en place des mesures similaires, souvent conditionnées à un consentement parental ou à une vérification d’identité numérique.
À première vue, ces politiques visent à protéger la jeunesse des risques, pour la santé mentale, d’exposition à des contenus explicites ou de ceux de mécanismes addictifs. Mais derrière le vocabulaire de la sécurité se dessine autre chose : un basculement des valeurs culturelles.
Ces interdictions traduisent une inflexion morale, au risque de ressusciter des conceptions conservatrices qui précèdent Internet. Sommes-nous en train d’entrer dans une nouvelle ère victorienne du numérique, où la vie en ligne des jeunes serait remodelée non seulement par la régulation, mais aussi par un regain de contrôle moral ?
L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements, l’école jouant un rôle central dans la transmission des hiérarchies sociales et genrées. On en retrouve aujourd’hui des échos dans le discours sur le « bien-être numérique ». Applications de suivi du temps d’écran, cures de « détox digitale » ou téléphones simplifiés sont présentés comme des moyens de cultiver une vie connectée « saine » – souvent sur fond de morale implicite. L’utilisateur idéal est calme, concentré, mesuré ; l’utilisateur impulsif ou expressif est pathologisé.
Cette vision est notamment popularisée par le psychologue Jonathan Haidt, auteur de The Anxious Generation (2024), devenu une référence du mouvement en faveur des restrictions d’âge. Selon lui, les réseaux sociaux accentuent les comportements performatifs et la dysrégulation émotionnelle chez les jeunes. La vie numérique des adolescents est ainsi décrite comme un terrain de fragilisation psychologique, de polarisation accrue et d’effritement des valeurs civiques communes.
Vu sous cet angle, la vie numérique des jeunes se traduit par une résilience psychologique en déclin, par une polarisation croissante et par l’érosion des valeurs civiques communes, plutôt que par un symptôme de mutations complexes. Cela a contribué à populariser l’idée que les réseaux sociaux ne sont pas seulement nocifs mais corrupteurs.
Mais ces thèses font débat. De nombreux chercheurs soulignent qu’elles reposent sur des corrélations fragiles et sur des interprétations sélectives. Certaines études établissent un lien entre usage intensif des réseaux sociaux et troubles anxieux ou dépressifs, mais d’autres montrent des effets modestes, variables selon les contextes, les plateformes et les individus. Surtout, ces analyses négligent la marge de manœuvre des jeunes eux-mêmes, leur capacité à naviguer dans les espaces numériques de façon créative, critique et sociale.
En réalité, la vie numérique des jeunes ne se résume pas à une consommation passive. C’est un espace de littératie, d’expression et de connexion. Des plateformes, comme TikTok et YouTube, ont favorisé une véritable renaissance de la communication orale et visuelle.
Les jeunes assemblent des mèmes, remixent des vidéos et pratiquent un montage effréné pour inventer de nouvelles formes de récit. Il ne s’agit pas de signes de déclin, mais de narrations en évolution. Réglementer leur accès sans reconnaître ces compétences, c’est risquer d’étouffer la nouveauté au profit du déjà-connu.
C’est ici que la comparaison avec l’ère victorienne a toute son utilité. De la même façon que les normes victoriennes visaient à maintenir un ordre social particulier, les restrictions d’âge actuelles risquent d’imposer une vision étroite de ce que devrait être la vie numérique.
En apparence, des termes comme celui de « brain rot » (pourrissement du cerveau) semblent désigner les effets nocifs d’un usage excessif d’Internet. Mais en pratique, les adolescents les emploient souvent pour en rire et pour résister aux pressions de la culture de la performance permanente.
Les inquiétudes autour des habitudes numériques des jeunes semblent surtout enracinées dans la peur d’une différence cognitive – l’idée que certains usagers seraient trop impulsifs, trop irrationnels, trop déviants. Les jeunes sont fréquemment décrits comme incapables de communiquer correctement, se cachant derrière leurs écrans et évitant les appels téléphoniques. Pourtant, ces changements reflètent des mutations plus larges dans notre rapport à la technologie. L’attente d’une disponibilité et d’une réactivité constantes nous attache à nos appareils d’une manière qui rend la déconnexion véritablement difficile.
Les restrictions d’âge peuvent atténuer certains symptômes, mais elles ne s’attaquent pas au problème de fond : la conception même des plateformes, construites pour nous faire défiler, partager et générer toujours plus de données.
Si la société et les gouvernements veulent vraiment protéger les jeunes, la meilleure stratégie serait sans doute de réguler les plateformes numériques elles-mêmes. Le juriste Eric Goldman qualifie l’approche fondée sur les restrictions d’âge de « stratégie de ségrégation et de répression » – une politique qui punit la jeunesse plutôt que de responsabiliser les plateformes.
On n’interdit pas aux enfants d’aller dans les aires de jeux, mais on attend de ces espaces qu’ils soient sûrs. Où sont les barrières de sécurité pour les espaces numériques ? Où est le devoir de vigilance des plateformes ?
La popularité croissante des interdictions de réseaux sociaux traduit un retour en force de valeurs conservatrices dans nos vies numériques. Mais la protection ne doit pas se faire au prix de l’autonomie, de la créativité ou de l’expression.
Pour beaucoup, Internet est devenu un champ de bataille moral, où s’affrontent des conceptions opposées de l’attention, de la communication et de l’identité. Mais c’est aussi une infrastructure sociale que les jeunes façonnent déjà par de nouvelles formes de narration et d’expression. Les en protéger reviendrait à étouffer les compétences et les voix mêmes qui pourraient nous aider à construire un futur numérique plus riche et plus sûr.
Alex Beattie reçoit des financements de la Royal Society Te Apārangi. Il est lauréat d’une bourse Marsden Fast Start.
29.10.2025 à 15:35
Gaël Mariani, Docteur en écologie marine, World Maritime University
Anaëlle Durfort, Doctorante en écologie marine, Université de Montpellier
David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier
Jérôme Guiet, Researcher in marine ecosystem modeling, University of California, Los Angeles
Les océans jouent un rôle majeur dans le stockage du carbone, notamment à travers la biomasse qu’ils abritent. Le cycle de vie des poissons contribue ainsi à piéger durablement le CO2 dans les abysses, mais la pêche industrielle a affaibli ce mécanisme essentiel, également menacé par le changement climatique. Restaurer les populations marines en haute mer pourrait renforcer ce puits de carbone naturel tout en limitant les conflits avec la sécurité alimentaire.
Lorsqu’on parle des puits de carbone naturels, ces systèmes naturels qui piègent plus de carbone qu’ils n’en émettent, on pense plus volontiers aux forêts et aux sols qu’aux océans. Pourtant, les océans représentent le second puits de carbone naturel.
L’impact des activités humaines (et en particulier la pêche) sur le stockage de carbone océanique n’avait été jusque-là que peu étudié, et cela alors que la macrofaune marine (notamment les poissons) représente environ un tiers du carbone organique stocké par les océans. Nos recherches, récemment publiées dans les revues Nature Communications et One Earth, ont voulu y remédier.
Nos résultats montrent que la pêche a d’ores et déjà réduit la séquestration de carbone par les poissons de près de moitié depuis 1950. D’ici la fin du siècle, cette baisse devrait atteindre 56 % sous l’effet combiné de la pêche et du changement climatique. De quoi plaider pour une gestion plus durable de l’océan, qui prendrait en compte l’impact de la pêche sur la séquestration de carbone.
Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) le dit explicitement dans ses rapports : pour atteindre les objectifs climatiques, il faut d’abord réduire drastiquement et immédiatement nos émissions de gaz à effet de serre (chaque année, les activités humaines émettent environ 40 milliards de tonnes équivalent CO₂), puis développer les solutions climatiques fondées sur la nature.
Celles-ci intègrent l’ensemble des mesures de restauration, de protection et de meilleure gestion des écosystèmes qui piègent du carbone, comme les forêts. Ces mesures pourraient capturer 10 milliards de tonnes équivalent CO₂ par an, et doivent être mises en œuvre de façon complémentaire à des politiques de réduction des émissions.
Cependant, le carbone stocké par ces écosystèmes est de plus en plus menacé par le changement climatique. Par exemple, les feux de forêt au Canada ont émis 2,5 milliards de tonnes équivalent CO₂ en 2023 : la forêt n’est alors plus un puits de carbone, mais devient une source d’émissions.
À lire aussi : Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?
Face à ce constat, la communauté scientifique se tourne aujourd’hui vers les océans, à la recherche de nouvelles solutions qui permettraient d’y séquestrer davantage de carbone.
Mais, pour que cela soit possible, il faut d’abord comprendre comment la vie abritée par les océans interagit avec le cycle du carbone ainsi que l’influence du changement climatique, d’une part, et de la pêche, d’autre part.
La vaste majorité des 38 000 milliards de tonne de carbone stocké par l’océan l’est à travers des phénomènes physiques. Mais la biomasse des océans y contribue également, à hauteur d’environ 1 300 milliards de tonnes de carbone organique. Les poissons représentent environ 30 % de ce stock de carbone.
Ceci est rendu possible via leur contribution à ce qu’on appelle la pompe biologique du carbone, c’est-à-dire, la série de processus biologiques qui permettent de transporter le carbone des eaux de surface vers les fonds marins. C’est un élément majeur du cycle du carbone.
Cette pompe biologique commence par le phytoplancton, capable de transformer du CO2 en matière organique carbonée. À sa mort, une partie de ce carbone va couler dans les profondeurs de l’océan où il sera séquestré durablement, tandis que le reste sera ingéré par des prédateurs. À nouveau, c’est lorsque ce carbone va couler dans les profondeurs (pelotes fécales, carcasses des prédateurs morts…) qu’il sera durablement séquestré.
Les poissons jouent un rôle clé dans ce processus : leurs carcasses et pelotes fécales, plus denses, coulent bien plus rapidement que celles du plancton. Or, plus le carbone coule rapidement vers les profondeurs – et s’éloigne de l’atmosphère –, plus le temps qu’il mettra avant de retourner à l’atmosphère sera important : le carbone sera ainsi stocké de façon plus durable.
Notre étude, qui s’est spécifiquement intéressée aux espèces de poissons d’intérêt commercial (c’est-à-dire ciblées par la pêche), estime que ces derniers étaient en mesure de séquestrer 0,23 milliard de tonnes de carbone par an en 1950 (soit 0,85 tonne de CO2 par an).
À lire aussi : Éliminer le CO₂ grâce au puits de carbone océanique, une bonne idée ?
Mais depuis 1950, les choses ont changé. D’abord du fait du changement climatique : à cause de la raréfaction des ressources alimentaires (moins de phytoplancton) et des changements de conditions environnementales (température, oxygène…), plus le changement climatique sera fort, plus la biomasse des espèces d’intérêt commercial – et par extension, leur capacité à piéger du carbone – vont diminuer.
Dans un scénario où l’augmentation moyenne des températures serait limitée à 1,5 °C (scénario de respect de l’accord de Paris), la biomasse baisserait d’environ 9 % d’ici la fin du siècle, soit une diminution de piégeage de carbone d’environ 4 %.
Dans le cas d’un scénario de statu quo où les températures augmenteraient de 4,3 °C, cette baisse atteindrait environ 24 % pour la biomasse, et près de 14 % pour le piégeage de carbone.
Nous avons donc à faire à ce que l’on appelle une boucle de rétroaction positive – autrement dit, un cercle vicieux : plus le changement climatique est important, moins les poissons séquestreront de carbone, ce qui va renforcer le changement climatique lui-même. C’est le serpent qui se mord la queue.
L’impact du changement climatique dans le scénario d’un réchauffement à 1,5 °C (que nous sommes en passe de dépasser) reste donc faible, mais les effets de la pêche, eux, sont déjà visibles.
Aujourd’hui, les espèces de poissons commerciales ne piègent déjà plus que 0,12 milliard de tonnes de CO2 par an (contre 0,23 milliard de tonnes de carbone par an en 1950), soit une diminution de près de moitié.
D’autant plus que les effets de la pêche ne sont pas les mêmes selon la voie de séquestration considérée. Depuis 1950, la pêche a réduit la séquestration de carbone via les pelotes fécales d’environ 47 %. Pour la voie passant par les carcasses, cette diminution est d’environ 63 %.
Ceci est lié au fait que la pêche cible les plus gros organismes, soit ceux qui ont le moins de prédateurs – et donc ceux le plus susceptibles de mourir de vieillesse et de voir leur carcasse couler dans les abysses.
Cette diminution est aussi synonyme d’une réduction de l’arrivée de nourriture dans les abysses, les carcasses étant une ressource particulièrement nutritive pour les organismes qui y vivent.
Or, nous connaissons très peu de choses sur ces écosystèmes abyssaux, avec des millions d’espèces qui restent à découvrir. Nous n’avons pour l’instant observé que 0,001 % de la surface totale de ces écosystèmes. Nous sommes donc peut-être en train d’affamer une multitude d’organismes abyssaux que nous connaissons à peine.
Notre étude montre que si les populations de poissons étaient restaurées à leur niveau historique de 1950, cela permettrait de séquestrer 0,4 milliard de tonnes de CO2 supplémentaires par an, soit un potentiel comparable à celui des mangroves. Avec un atout : ce carbone serait séquestré pour environ six cents ans, soit plus longtemps que dans les mangroves, où seuls 9 % du carbone piégé l’est encore après cent ans.
Cependant, malgré ce potentiel notable, les solutions climatiques basées sur la restauration de la macrofaune marine, si elles étaient mises en œuvre seules, n’auraient qu’un impact mineur sur le climat, au regard des 40 milliards de tonnes de CO₂ émis chaque année.
D’autant plus que, ce domaine de recherche étant récent, plusieurs incertitudes subsistent. Par exemple, nos études ne tiennent pas compte des relations trophiques (c’est-à-dire, liées à la chaîne alimentaire) entre les prédateurs et leurs proies, lesquelles contribuent aussi à la séquestration de carbone. Or, si on augmente la biomasse des prédateurs, la biomasse des proies va mécaniquement diminuer. Ainsi, si la séquestration de carbone par les prédateurs augmente, celle des proies diminue, ce qui peut neutraliser l'impact des mesures visant à restaurer les populations de poissons pour séquestrer du carbone.
Ainsi, nos résultats ne doivent pas être vus comme une preuve suffisante pour considérer de telles mesures comme une solution viable. Ils illustrent néanmoins l’importance d’étudier l’impact de la pêche sur la séquestration de carbone et la nécessité de protéger l’océan pour limiter les risques d’épuisement de ce puits de carbone, tout en tenant compte des services rendus par l’océan à nos sociétés (sécurité alimentaire, emplois…).
En effet, les organismes marins participent directement à la séquestration de carbone, tout en bénéficiant aussi au secteur de la pêche. Or, ce secteur est une source d’emplois et de revenus économiques majeurs pour les populations côtières, contribuant directement au maintien et à l’atteinte de la sécurité alimentaire dans certaines régions.
Des conflits entre la séquestration de carbone et les bénéfices socio-économiques de la pêche peuvent donc théoriquement apparaître. Si la pêche augmente, les populations de poissons et leur capacité à séquestrer du carbone vont diminuer, et inversement.
Toutefois, nous avons montré que seulement 11 % de la surface de l’océan est potentiellement exposée à de tels conflits. Il s’agit des zones où l’effort de pêche et la séquestration de carbone sont tous deux élevés.
De plus, une majorité (environ 60 %) de ces zones potentiellement conflictuelles sont situées en haute mer, là où les captures contribuent de façon négligeable à la sécurité alimentaire globale. Aussi, la pêche en haute mer est connue pour sa faible rentabilité et son subventionnement massif par les gouvernements (à hauteur de 1,5 milliard de dollars, soit plus de 1,2 milliard d’euros, en 2018).
Ces subventions gouvernementales sont vivement critiquées, car elles menacent la viabilité des pêcheries côtières artisanales, favorisent la consommation de carburant et augmentent les inégalités entre les pays à faibles et hauts revenus.
Ainsi, nos résultats apportent un argument supplémentaire en faveur de la protection de la haute mer. En plus d’éviter de multiples effets socio-économiques négatifs, cela permettrait également de protéger la biodiversité et, par la même occasion, de préserver la capacité des océans à séquestrer du carbone organique.
Le financement a été assuré par la bourse de doctorat de l'Université de Montpellier à G.M. et la bourse de la Fondation de la Mer. de Montpellier à G.M. Le travail de G.M. a été partiellement financé par l'Union européenne dans le cadre de l'accord de subvention n°101083922 (OceanICU). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'Agence exécutive pour la recherche européenne. L'Union européenne et l'autorité qui a octroyé la subvention ne peuvent en être tenues pour responsables.
Anaëlle Durfort a participé à ce travail dans le cadre de son doctorat, financé par une bourse de thèse (publique) à l'université de Montpellier.
David Mouillot et Jérôme Guiet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.10.2025 à 15:34
Charlotte Emlinger, Économiste, CEPII
Kevin Lefebvre, Économiste, CEPII
Vincent Vicard, Économiste, adjoint au directeur, CEPII
À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis. Explication en chiffres et en graphiques.
La hausse spectaculaire des droits de douane imposée par les États-Unis aux importations en provenance de Chine (57,6 % fin août, après un pic à 135,3 % en avril d’après les calculs du Peterson Institute for International Economics) ferme largement le marché états-unien aux exportateurs chinois. La chute massive des exportations chinoises vers les États-Unis qui s’en est suivie, en recul de près de 25 % sur la période juin-août 2025 par rapport aux mêmes mois de 2024, témoigne de l’ampleur du choc.
Le risque est que, confrontés à la fermeture de l’un de leurs deux principaux marchés, les exportateurs chinois cherchent à réorienter leurs exportations, laissant planer le doute d’une redirection massive vers l’Union européenne (UE). Dans cette perspective, la Commission européenne a mis en place une surveillance du détournement des flux commerciaux pour identifier les produits faisant l’objet d’une hausse rapide des quantités importées et d’une baisse de prix, toutes origines confondues.
Le premier graphique montre que, depuis février, la baisse des exportations chinoises s’est accompagnée d’une hausse de celles vers l’Union européenne. Une analyse des évolutions passées révèle toutefois que la hausse observée au deuxième trimestre 2025 correspond en partie à un rebond saisonnier observé à la même époque les années précédentes et lié au Nouvel An chinois, que cela soit pour l’Union européenne, les États-Unis, le Vietnam, le Japon ou la Corée du Sud. Il est essentiel d’interpréter les évolutions récentes au regard des dynamiques saisonnières des années antérieures.
Observer une hausse des importations ne suffit pas à conclure à une redirection du commerce chinois des États-Unis vers l’Union européenne (UE).
Pour qu’un tel phénomène soit avéré, il faut que les mêmes produits soient simultanément concernés par une hausse des volumes d’exportations de la Chine vers l’UE et une baisse vers les États-Unis. Par exemple, une hausse des exportations de véhicules électriques chinois vers l’UE ne peut pas être considérée comme une réorientation du commerce puisque ces produits n’étaient pas exportés auparavant vers les États-Unis.
De la même manière, les produits faisant l’objet d’exceptions dans les droits mis en place par Donald Trump, comme certains produits électroniques, certains combustibles minéraux ou certains produits chimiques, ne sont pas susceptibles d’être réorientés. Cela ne signifie pas qu’une augmentation des flux d’importations de ces produits ne soulève pas des enjeux de compétitivité et de concurrence pour les acteurs français ou européens. Mais ces enjeux sont d’une autre nature que ceux liés à une pure redirection du commerce chinois consécutive à la fermeture du marché des États-Unis.
Pour identifier les produits pour lesquels la fermeture du marché états-unien a entraîné une redirection du commerce chinois vers l’Union européenne (UE), nous combinons deux critères :
Si, d’une année sur l’autre, le volume des exportations d’un produit vers l’UE augmente plus vite que celui des trois quarts des autres produits chinois exportés vers l’UE en 2024.
Si, d’une année sur l’autre, le volume des exportations d’un produit vers les États-Unis diminue plus vite que celui des trois quarts des autres produits chinois exportés vers les États-Unis en 2024.
Seuls les produits pour lesquels les exportations chinoises vers les États-Unis étaient suffisamment importantes avant la fermeture du marché états-unien sont retenus. Soit les 2 499 produits pour lesquels la part des États-Unis dans les exportations chinoises dépassait 5 % en 2024. Pour 402 de ces produits, le volume des exportations chinoises a enregistré une forte baisse entre juin-août 2024 et juin-août 2025.
En combinant les deux critères, 176 produits sont concernés en juin-août 2025 (graphique 2), soit 44 % des produits dont les ventes ont nettement chuté sur le marché états-unien. Parmi eux, 105 concernent des produits pour lesquels l’Union européenne a un avantage comparatif révélé, c’est-à-dire pour lesquels la hausse des importations se fait sur une spécialisation européenne.
Moins de la moitié des 176 produits connaît simultanément une forte baisse de leur prix, suggérant qu’une partie de la redirection du commerce chinois entraîne une concurrence par les prix sur le marché européen.
En valeur, les 176 produits identifiés représentent 7,2 % des exportations chinoises vers l’Union européenne sur la dernière période disponible, et la tendance est clairement à la hausse (graphique 3). Cette progression s’explique pour beaucoup par la hausse des flux de petits colis redirigés vers l’UE depuis qu’en avril 2025, les États-Unis ont supprimé l’exemption de droits de douane sur les colis en provenance de Chine.
Les produits sujets à redirection vers le marché européen sont très inégalement répartis entre secteurs (graphique 4). En nombre, on les retrouve concentrés dans les secteurs des machines et appareils (42 produits), de la chimie (31) et des métaux (22). En valeur cependant, les secteurs les plus concernés sont de très loin les petits colis (qui représentent 5,4 % du commerce bilatéral en juin-août 2025) et, dans une moindre mesure, les équipements de transport, les huiles et machines et appareils.
En comparaison, le Japon subit davantage la réorientation du commerce chinois puisque 298 produits sont identifiés en juin-août 2025 (graphique 5). Ces produits représentent une part beaucoup plus importante des exportations chinoises vers le Japon (16,2 % en juin-août 2025). Des dynamiques similaires sont observées en Corée du Sud (196 produits, représentant 2,7 % de son commerce bilatéral avec la Chine) et le Vietnam (230 produits, 6,5 % de son commerce bilatéral avec la Chine).
Consciente de la menace qu’ils représentent, la Commission européenne prévoit, dans le cadre de la prochaine réforme du Code des douanes, de mettre fin au régime douanier simplifié dont ces petits colis bénéficient actuellement. Cette réforme ne devrait pas entrer en vigueur avant 2027. D’ici là, certains États membres tentent d’aller plus vite.
En France, le gouvernement a récemment proposé, dans le cadre de son projet de loi de finance, d’instaurer une taxe forfaitaire par colis. Mais, sans coordination européenne, la mesure risque d’être contournée : les colis pourraient simplement transiter par un pays de l’UE à la taxation plus clémente.
Au-delà des petits colis, un certain nombre d’autres produits sont également soumis à des hausses rapides des quantités importées, susceptibles de fragiliser les producteurs européens, mais ils représentent une part limitée des importations européennes en provenance de Chine. Des tendances qui devront être confirmées dans les prochains mois par un suivi régulier.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.10.2025 à 15:33
Isabelle Romieu, Professeur d’épidémiologie, National Institute of Public Health of Mexico
Le cancer du sein demeure la première cause de mortalité par cancer chez les femmes. Outre le dépistage, la lutte contre la maladie passe également par la prise en compte des facteurs de risque modifiables sur lesquels il est possible d’agir. Si l’alcool, le tabac, le surpoids ou la sédentarité sont fréquemment mentionnés, on sait peut-être moins que le fait de ne pas avoir allaité en constitue aussi un.
En 2025, « Octobre rose » a fêté son 32ᵉ anniversaire. Chaque année, cette campagne mondiale de communication vise un double objectif : sensibiliser au dépistage du cancer du sein et récolter des fonds pour la recherche.
Cet événement, symbolisé par le ruban rose, est plus que jamais d’actualité. En effet, en France, le cancer du sein continue malheureusement à progresser. Il représente aujourd’hui à lui seul le tiers de l’ensemble des nouveaux cas de cancer chez la femme.
Si la survie des patients s’est améliorée, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, chaque année, plusieurs milliers d’entre elles décèdent encore de la maladie. Dans un tel contexte, la connaissance des facteurs de risque et, en particulier, de ceux sur lesquels il est possible d’agir, est extrêmement importante.
On sait aujourd’hui que la consommation d’alcool, le surpoids et l’obésité ou encore la sédentarité accroissent le risque de développer la maladie. Mais un autre facteur de risque est peut-être moins connu du public : le fait de ne pas avoir allaité au cours de sa vie. L’allaitement confère, en effet, un certain niveau de protection contre le cancer du sein.
Les scientifiques ont commencé à élucider les mécanismes qui en sont à l’origine. Voici ce qu’il faut en savoir.
En France, le nombre de nouveaux cas de cancer du sein diagnostiqués chaque année a progressé de 0,3 % par an entre 2010 et 2023.
En 2023, 61 214 femmes se sont vues annoncer le triste diagnostic, tandis que 12 600 ont été emportées par la maladie. L’incidence de la maladie est particulièrement élevée dans notre pays, où l’on compte 99,2 cas pour 100 000 femmes. Selon les dernières données de Globocan (Global Cancer Observatory/Organisation mondiale de la santé), la France se situe en quatrième position en Europe derrière la Belgique, les Pays-Bas et le Luxembourg, et devant le Royaume-Uni, l’Italie, l’Allemagne et l’Espagne.
Point positif : entre 2011 et 2021, la mortalité due au cancer du sein a reculé de 1,3 % par an. Bien que la survie des patientes ait progressé au fil des ans, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, le cancer du sein reste le cancer féminin le plus fréquent ainsi que la première cause de mortalité par cancer chez la femme.
Le cancer du sein est néanmoins un cancer de bon pronostic. Entre 2005 et 2010, la survie nette à cinq ans était de 88 % (et de 76 % à dix ans). Afin de détecter précocement la maladie et d’en réduire la mortalité, un programme national de dépistage est organisé depuis 2004.
Dans ce cadre, toutes les femmes âgées de 50 ans à 74 ans se voient proposer un dépistage pris en charge à 100 %, tous les deux ans. Cependant, en 2023, seuls 48,2 % des femmes éligibles à ce programme avaient été dépistées. Seuls 60 % des cancers du sein étaient détectés à un stade précoce.
En parallèle du dépistage, il est donc également important d’agir sur les facteurs de risque de cancer du sein susceptible d’être modifiés. Selon le Centre international de recherche sur le cancer (CIRC), 37 % de l’ensemble des nouveaux cas de cancers seraient attribuables à des facteurs de risque modifiables, qu’ils soient comportementaux ou environnementaux. Parmi ceux-ci figurent non seulement la consommation d’alcool, le surpoids et l’obésité, la sédentarité ou le fait de fumer, mais aussi, dans le cas du cancer du sein, le fait de ne pas avoir allaité.
L’effet protecteur de l’allaitement augmente avec la durée cumulée de l’allaitement, qui correspond à la durée d’allaitement d’une femme pour tous ses enfants.
Pour chaque douze mois cumulés d’allaitement, la réduction du risque de cancer du sein est estimée à 4,3 %. Cet effet protecteur s’ajoute à la protection associée à la parité (c’est-à-dire la réduction du risque de cancer du sein directement liée au fait d’avoir eu un enfant).
Dans ce contexte, une femme qui a deux enfants et qui nourrit chaque enfant au sein pendant douze mois aura une diminution de risque de cancer du sein de 8,6 %. Une femme qui a eu trois enfants et les a allaités chacun pendant cinq mois, soit un l’allaitement total de quinze mois, verra le risque de développer un cancer du sein diminuer de 6 %.
En France, les données de l’Agence nationale de santé publique montre que le taux d’allaitement diminue avec le temps. Si, en 2021, le taux d’initiation à l’allaitement maternel était de 77 %, à l’âge de 2 mois seuls 54,2 % des enfants étaient encore allaités. À 6 mois, cette proportion tombe à 34 % des enfants encore allaités (dont 29 % tout en ayant commencé une diversification alimentaire). À 12 mois, seuls 18 % des enfants étaient encore allaités.
Cette situation contraste avec certains pays d’Europe, où le taux d’allaitement est nettement plus élevé. Ainsi, en Norvège, 98 % des enfants sont allaités à la naissance, 71 % des enfants sont encore allaités à l’âge de 6 mois et 35 % à 12 mois. En Suisse, 95 % des enfants sont allaités à la naissance, 52 % des enfants sont encore allaités à 6 mois et 20 % à 12 mois.
Divers travaux de recherche ont tenté d’éclaircir les mécanismes de protection. En l’état actuel des connaissances, il semblerait que l’allaitement joue un rôle protecteur contre le cancer du sein de plusieurs façons.
Lors de l’allaitement, la structure du sein se modifie, ce qui augmente la différenciation de l’épithélium mammaire et rend les cellules moins sensibles à la transformation maligne. Par ailleurs, l’allaitement retarde la reprise des cycles ovulaires après la grossesse et réduit le taux d’œstrogènes dans le sein, ce qui se traduit par une plus faible exposition du tissu mammaire aux hormones. Or, les hormones jouent un rôle important dans le risque de cancer du sein, car elles modulent la structure et la croissance des cellules épithéliales tumorales.
Enfin, au cours de la lactation, on constate une exfoliation plus importante du tissu mammaire (décrochage de cellules), ce qui pourrait entraîner une élimination de cellules du tissu canalaire mammaire potentiellement porteuses de lésions de l’ADN risquant de dégénérer en cancer.
Soulignons que le fait de tirer son lait confère également un certain niveau de protection, similaire à l’allaitement direct.
Au-delà de la diminution du risque de cancer du sein, l’allaitement maternel présente également d’autres avantages majeurs pour la mère et l’enfant.
Pour la mère, l’allaitement maternel permettra de retrouver le poids d’avant la grossesse et de réduire la prise de poids à long terme. Les femmes d’âge moyen qui ont allaité sont moins susceptibles d’être en surpoids ou obèses.
Pour l’enfant, le lait maternel est le meilleur aliment pendant les six premiers mois de la vie. Il protège contre maladies infectieuses dès le plus jeune âge, principalement la diarrhée et les infections des voies respiratoires inférieures. Cette protection est due à la présence dans le lait maternel de plusieurs composés antimicrobiens, anti-inflammatoires et modulateurs de l’immunité ainsi que de modulateurs de croissance.
Enfin, des effets sur le développement cognitif de l’enfant ainsi que sur la croissance et la protection contre les maladies chroniques telles que l’asthme et l’obésité ont aussi été évoqués par certains travaux de recherche.
De nombreuses mères rencontrent des difficultés d’allaitement, en général temporaires. Il s’agit principalement de crevasses, d’une perception de lait insuffisant, d’engorgements ou de douleurs.
Si ces difficultés persistent, un soutien professionnel adéquat peut être proposé. Il inclut la consultation d’une sage-femme ou d’une consultante en lactation, et peut être fourni par des maternités, des centres de protection maternelle et infantile (PMI), ou par l’intermédiaire d’associations comme l’Association française de consultants en lactation.
Dans certains cas, lorsque les difficultés pour allaiter persistent ou que des causes médicales sont impliquées, il est possible de recourir à des laits infantiles de qualité, sous la supervision d’un professionnel de santé, ou encore à des dons de lait maternel.
La protection conférée par l’allaitement est d’autant plus importante que les mois d’allaitement cumulés sont nombreux, mais soulignons que toute durée d’allaitement aura un effet protecteur.
Pour aller plus loin :
le guide de l’allaitement maternel de Santé publique France ;
les dossiers du réseau NACRe (réseau National alimentation cancer recherche) dédié au cancer du sein ;
Le site consacrée à Octobre rose, le mois de sensibilisation au dépistage du cancer du sein.
Isabelle Romieu a reçu des subventions de l’Institut national du cancer (INCA) et du « World cancer research fund » (WCRF) pour des travaux de recherche épidémiologique sur les facteurs de risques de cancer du sein.
29.10.2025 à 14:00
Robert Muggah, Richard von Weizsäcker Fellow na Bosch Academy e Co-fundador, Instituto Igarapé
Le raid policier, mené le 28 octobre 2025, contre des narcotrafiquants dans les favelas de Rio de Janeiro est le plus meurtrier qu’ait connu la ville. Mais face à l’empire que le crime organisé a constitué au Brésil, les interventions spectaculaires ne suffisent plus : l’État doit inventer une réponse nationale.
Le 28 octobre, à Rio de Janeiro, des véhicules blindés de la police ont pénétré dans les complexes d’Alemão et de Penha pour interpeller des chefs de gangs. Des fusillades ont éclaté, des routes ont été bloquées, des bus ont été détournés, des écoles et des campus ont été fermés, et des drones ont largué des explosifs sur les forces de l’ordre. Le soir venu, l’État confirmait que « l’opération Contenção » s’était soldée par 124 morts, dont quatre policiers. Ce fut la confrontation la plus sanglante jamais enregistrée dans l’histoire de la ville.
L’économie criminelle du Brésil est sortie des ruelles pour investir désormais les salles de réunion, figurer dans les bilans financiers et s’infiltrer dans des chaînes d’approvisionnement essentielles. Au cours de la dernière décennie, le crime organisé brésilien s’est étendu à l’ensemble du pays et même à d’autres continents. Les plus grandes organisations de trafic de drogue, comme le Primeiro Comando da Capital (PCC) et le Comando Vermelho (CV), se trouvent au cœur de véritables réseaux franchisés. Les « milices » de Rio – groupes paramilitaires principalement composés de policiers et de pompiers ayant quitté leurs anciennes fonctions ou, pour certains, les exerçant toujours – monétisent le contrôle qu’elles exercent sur le territoire en se faisant payer pour des « services » de protection, de transport, de construction et autres services essentiels.
À mesure que ces groupes se sont professionnalisés, ils ont diversifié leurs activités, qui vont aujourd’hui du trafic de cocaïne à la contrebande d’or, aux paiements numériques et aux services publics. Lorsque les groupes armés du Brésil se disputent les marchés illicites, la violence peut atteindre des niveaux comparables à ceux de zones de guerre.
Rien n’illustre mieux le nouveau modèle économique que le commerce illégal de carburants. Comme je l’ai écrit dans The Conversation fin août, les autorités ont effectué environ 350 perquisitions dans huit États dans le cadre de l’opération Carbone Caché, qui visait à faire la lumière sur le blanchiment présumé de sommes colossales à travers des importations de dérivés du pétrole et un réseau de plus d’un millier de stations-service. Entre 2020 et 2024, environ 52 milliards de réaux (8,3 milliards d’euros) de flux suspects ont transité par des fintechs, dont l’une fonctionnait en tant que banque parallèle. Des fonds fermés auraient investi dans des usines d’éthanol, des flottes de camions et un terminal portuaire, donnant aux profits illicites un vernis de respectabilité.
Sur les marchés financiers, les investisseurs sont à présent conscients des dangers. Ces derniers mois, les fonds d’investissement ont enfin commencé à considérer l’infiltration criminelle comme un risque matériel, et les analystes cherchent plus qu’auparavant à déterminer quelles chaînes logistiques, quelles institutions de paiement et quels fournisseurs régionaux pourraient être exposés.
Les équipes de sécurité des entreprises cartographient l’extorsion et le contrôle des milices avec la même attention que celle qu’elles accordent aux menaces cyber.
La réaction du marché aux opérations menées en août par la police dans le cadre de l’opération « Carbone Caché » a rappelé que le crime organisé ne génère pas seulement de la violence : il fausse la concurrence, pénalise les entreprises respectueuses des règles et impose une taxe cachée aux consommateurs. Il n’est donc pas surprenant qu’en septembre, le ministre des finances Fernando Haddad ait annoncé la création d’une nouvelle unité policière dédiée à la lutte contre les crimes financiers.
La « gouvernance criminelle » s’est propagée des prisons aux centres financiers. Dans leurs fiefs de Rio, les gangs et les milices opèrent comme des bandits traditionnels, contrôlant le territoire et les chaînes d’approvisionnement logistique. Pendant ce temps, des franchises du PCC et du CV sont apparues à l’intérieur des terres et en Amazonie, cherchant à engranger des profits plus élevés grâce à la contrebande d’or et de bois, ainsi qu’au transport fluvial illégal de marchandises.
Ces factions opèrent désormais au-delà des frontières, du pays en lien avec des organisations criminelles de Colombie, du Pérou et du Venezuela.
Le bilan humain reste accablant, même si les chiffres nationaux agrégés se sont améliorés. En 2024, le Brésil a enregistré 44 127 morts violentes intentionnelles, son niveau le plus bas depuis 2012, mais cela représente encore plus de 120 homicides par jour. La géographie de l’intimidation s’est étendue : une enquête commandée par le Forum brésilien de la sécurité publique a révélé que 19 % des Brésiliens – soit environ 28,5 millions de personnes – vivent aujourd’hui dans des quartiers où la présence de gangs ou de milices est manifeste, soit une hausse de cinq points en un an.
Les outils de contrôle de l’État n’ont pas suivi l’évolution du modèle économique du crime organisé. Les incursions spectaculaires et les occupations temporaires font les gros titres et entraînent de nombreuses morts, mais perturbent peu le marché. Les polices des États, depuis longtemps considérées comme les plus létales du monde, démantèlent rarement les groupes criminels.
Les politiques étatiques et municipales sont elles aussi devenues de plus en plus vulnérables : le financement des campagnes, les contrats de travaux publics et les licences sont désormais des canaux investis par le pouvoir criminel. L’opération fédérale d’août a constitué une rare exception et a apporté la preuve de l’efficacité d’une répression visant l’argent du crime, et non seulement les porte-flingues.
Si les législateurs brésiliens sont sérieux, ils doivent traiter le crime organisé comme une défaillance du marché national et réagir à l’échelle nationale. Cela commence par placer le gouvernement fédéral à la tête de forces spéciales interinstitutionnelles permanentes réunissant police fédérale, procureur général, administration fiscale, cellules de renseignement financier, régulateurs du carburant et du marché, ainsi que Banque centrale.
Ces équipes devront disposer d’un mandat clair pour agir au-delà des frontières des États et accomplir quatre tâches simples : suivre en temps réel les paiements à risque ; publier une liste fiable des propriétaires réels des entreprises qui contrôlent le carburant, les ports et d’autres actifs stratégiques ; connecter les données fiscales, douanières, de concurrence et de marchés afin qu’un signal d’alerte dans un domaine déclenche des vérifications dans les autres ; et se tourner vers des tribunaux au fonctionnement accéléré pour rapidement geler et saisir l’argent sale.
Les incitations doivent être modifiées afin que la police et les procureurs soient récompensés pour les condamnations et les saisies d’actifs, et non pour le nombre de morts. Et là où des groupes criminels ont pris le contrôle de services essentiels, comme les transports ou les services publics, ceux-ci doivent être placés sous contrôle fédéral temporaire et faire l’objet d’appels d’offres transparents et étroitement surveillés afin d’être, au final, remis à des opérateurs légaux.
Le Brésil a déjà prouvé qu’il pouvait mener de grandes opérations aux effets dévastateurs contre le crime. Le véritable défi est désormais de faire en sorte que le travail ordinaire de la loi – enquêtes, constitution de dossiers solides… – soit plus décisif que les interventions spectaculaires. Faute de quoi, il ne faudra pas longtemps pour qu’une grande ville brésilienne ne soit complètement paralysée.
Robert Muggah est affilié à l’Institut Igarapé et à SecDev.
29.10.2025 à 12:04
Claudio Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours
La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.
Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.
Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.
Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.
Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.
La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.
Une femelle moustique peut survivre plusieurs jours voire quelques semaines sans piquer pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.
La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies, telles que la fièvre du Nil occidental ou l’encéphalite japonaise.
La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.
Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette forme de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.
Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP "REPEL".
29.10.2025 à 12:04
Saad Benjelloun, Responsable du département de mathématiques, Pôle Léonard de Vinci
Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.
Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.
Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.
Il existe des méthodes qui permettent de décomposer un signal (une image ou un son, par exemple) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de la peau).
À lire aussi : Des caméras 3D dans nos smartphones : comment numériser notre environnement ?
Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire.
Cette acuité correspond à la faculté de discerner un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !
À lire aussi : Aveugles, malvoyants : que voient-ils ?
Sur une image, cette limite s’appelle la « fréquence de coupure » : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.
Si l’on applique cette logique, la 8K ne devient vraiment utile que si :
l’écran est très grand,
ou que l’on s’assoit très près,
ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).
Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.
Un outil mathématique puissant, la « transformée de Fourier », inventée par Joseph Fourier en 1817, permet de quantifier cet effet.
Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal, autrement dit, sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « Est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »
Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou pour un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier est lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.
Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences, autour de la valeur (0,0).
Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version Full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.
Regardons de plus près ce qui se passe en manipulant ce spectre. On parle alors de filtres.
Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.
C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling, en anglais) et d’amélioration d’image pour tenter de reconstituer et de renforcer ces hautes fréquences manquantes et offrir ainsi une meilleure qualité visuelle.
Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.
Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !
Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.10.2025 à 12:04
Hervé Chneiweiss, Président du Comité d'éthique de l'Inserm, Inserm; Centre national de la recherche scientifique (CNRS); Sorbonne Université

Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.
Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.
The Conversation : Jouer à un jeu vidéo sans manette, voilà qui va séduire plein de monde ! Mais on pourrait y voir des risques aussi, j’imagine ?
Hervé Chneiweiss : Oui, on peut envisager des risques en termes d’addiction ou d’utilisation de vos pensées les plus intimes, par exemple.
Pour comprendre les discussions autour de l’addiction et des neurotechnologies, je vous propose de remonter un peu dans le temps. Il y a trente ans déjà, alors que je travaillais en tant que neurologue sur la maladie de Parkinson, on a posé des implants cérébraux chez certains malades parkinsoniens jeunes et très rigides pour faire de la stimulation cérébrale profonde à haute fréquence, qui permet de débloquer leurs mouvements. C’est à ce moment que la communauté scientifique a constaté certains cas d’effets secondaires de cette stimulation sous forme de troubles compulsifs de comportement soit dans le domaine de la sexualité (hypersexualité) soit dans celui des compulsions d’achat.
En effet, en stimulant le cerveau de ces patients, on libérait manifestement trop de dopamine. Or, la dopamine est le principal neurotransmetteur d’un circuit qu’on appelle le « circuit de la récompense », ou reward en anglais – ce dernier est plus approprié que le terme français, car il traduit l’idée d’« obtenir ce que j’avais prévu d’obtenir ». Ainsi, avec nos électrodes, nous provoquions une libération de la dopamine en excès à un certain endroit du cerveau, ce qui perturbait les processus de décision et orientait les patients vers des comportements compulsifs.
Ces effets secondaires sont assez fréquents – environ un malade sur cinq les expérimente au début de la pose de l’implant, puis ils régressent et disparaissent en général au bout d’un mois ou deux. Il a été jugé que la potentielle survenue de ces effets indésirables était acceptable compte tenu du bénéfice attendu de la thérapeutique.
Depuis, les technologies ont beaucoup progressé : il existe tout un panel de techniques qui permettent de détecter les signaux du cerveau, ou bien de stimuler son activité. Ces techniques utilisent des dispositifs invasifs – comme les électrodes implantées dans le cerveau de patients parkinsoniens, dans les années 1990 – ou bien non invasifs – par exemple, des casques munis de petites électrodes que l’on pose sur la tête.
Le neurogaming utilise pour l’instant des casques posés sur le crâne, et non des électrodes implantées profondément dans le cerveau, comme pour le traitement de la maladie de Parkinson il y a quelques années. Y a-t-il, là aussi, un risque de surstimulation du circuit de la dopamine, et donc de compulsion ?
H. C. : Effectivement, il faut bien faire la différence entre deux types de dispositifs : d’un côté, ceux qui permettent la collecte d’informations sur l’activité cérébrale ; de l’autre, des systèmes qui vont moduler ou stimuler l’activité cérébrale – l’influencer, en somme.
En 2018 déjà, Rodrigo Hübner Mendes a réussi à conduire une Formule 1 simplement avec un casque posé sur la tête. Le signal d’électro-encéphalogramme était suffisamment bien décodé pour lui permettre de piloter cette voiture alors qu’il était tétraplégique et ne pouvait pas toucher le volant. Il l’a conduite simplement avec un casque qui détectait son activité cérébrale et donc, selon sa volonté, son intention d’accélérer ou de tourner à droite ou à gauche que l’interface cerveau-machine transmettait au système de pilotage de la Formule 1. C’est de la pure détection.
Et c’est exactement la même chose avec les systèmes « brain to speech », c’est-à-dire la capacité de décoder l’activité cérébrale responsable du langage avec une interface cerveau-machine, qui traduit cette activité en paroles en un dixième de seconde. Il s’agit de dispositifs qui pourraient venir en aide à des gens qui ont fait un accident vasculaire cérébral, qui ont des troubles du langage, ou par exemple dans la maladie de Charcot. C’est un des domaines des neurotechnologies qui avance le plus vite aujourd’hui. On sait désormais le faire avec des électrodes à la surface du cerveau, et non plus avec des électrodes profondes. D’ici cinq ans, on arrivera probablement à faire la même chose avec des électrodes à la surface du scalp, sur l’extérieur du crâne. Il s’agit là encore de détection.
C’est complètement différent des systèmes de stimulation ou de modulation, dans lesquels la machine envoie un signal au cerveau pour modifier l’activité cérébrale. Dans le premier cas, on ne modifie pas l’activité cérébrale, on se contente de la détecter. Dans le deuxième cas, on modifie l’activité cérébrale.
Est-ce que l’on sait aujourd’hui faire de la stimulation avec des implants non invasifs ?
H. C. : Oui, c’est ce qui se passe aujourd’hui dans le domaine médical avec la stimulation magnétique transcrânienne, qui est très utilisée pour la rééducation des accidents vasculaires cérébraux. On va inhiber l’activité d’une région du cerveau pour permettre la récupération d’une autre région du cerveau. Des résultats prometteurs ont été rapportés pour soigner certaines formes de dépression nerveuse grâce à des petits boîtiers de stimulation électrique, que l’on appelle DCS, qui sont des systèmes de stimulation continue.
Ces dispositifs sont aussi vendus en prétendant que ça peut permettre la relaxation, mais là, il n’y a aucune preuve scientifique que ça fonctionne.
D’autres types de stimulation non invasive peuvent être envisagés, par exemple avec des ultrasons pour essayer de lutter contre des tumeurs et contre des plaques amyloïdes dans la maladie d’Alzheimer.
Il va de soi que ces dispositifs capables de stimuler l’activité cérébrale intéressent beaucoup les gens qui aimeraient bien manipuler d’autres gens. Ces possibilités sont ouvertes par les grands progrès faits en neuroscience depuis trente ans, notamment en découvrant que d’autres régions du cerveau, moins profondes que celles impliquées dans la maladie de Parkinson, sont impliquées dans ces processus de décision : dans le cortex préfrontal, qui est au-dessus du nez, ou dans le cortex temporal. Ces zones sont en surface, relativement accessibles aujourd’hui.
L’objectif des gens qui développent ces technologies à des fins récréatives est d’essayer d’optimiser l’addiction, en stimulant directement les centres de la récompense ou de l’appétit, en corrélation évidemment avec un acte d’achat – ou avec ce qu’on cherche à faire aux gens pour tenter d’orienter les choses dans les jeux vidéo.
Ce qui est fait actuellement, c’est d’essayer de détecter (et non de stimuler – du moins, pas encore) avec ces casques l’état émotionnel de la personne et de modifier le degré de difficulté ou les épreuves du jeu vidéo en fonction de cet état émotionnel.
Est-il facile de détecter les émotions et les pensées aujourd’hui ?
H. C. : La réponse est différente pour les émotions – pour lesquelles oui, c’est facile – et pour les pensées – pour lesquelles, c’est plus difficile, mais on y vient.
Les émotions et la fatigue mentale sont des choses qu’on décrypte d’une façon macroscopique. Par exemple, quand vous êtes fatiguée, votre « saccade oculaire » ralentit, c’est-à-dire que vos yeux balayent moins rapidement la scène devant vous – ce qu’ils font en permanence. Le rythme des saccades est très facile à détecter.
De plus, selon notre degré émotionnel, différentes régions de notre cerveau sont plus ou moins actives. Comme ces régions sont assez grosses, en volume, il est possible de détecter leur niveau d’activité avec différents dispositifs : un casque posé à la surface du crâne ; une imagerie par résonance magnétique (IRM) fonctionnelle – un appareil qui est gros, certes, mais non invasif : nous n’avons pas besoin d’électrodes implantées dans le cerveau pour détecter ces signaux ; des plugs (bouchons) qu’on met dans les oreilles ainsi que de petits systèmes qui fonctionnent dans le proche infrarouge et qui mesurent des changements de vascularisation à la surface du cerveau. Ces dispositifs permettent de mesurer un certain nombre de changements d’activité de certaines régions du cerveau.
Par exemple, avec un casque posé sur la tête, donc non invasif, on peut réaliser des électro-encéphalogrammes (EEG). Quand vous commencez à être fatiguée, on voit des ondes de plus grande amplitude apparaître, puis des pointes d’une forme bien particulière si vous êtes vraiment en train de vous endormir. Ces signaux sont faciles à détecter avec un casque EEG.
Par contre, si vous pensez « J’ai faim » ou que vous vous préparez à prononcer un mot, là c’est plus dur. Des groupes de recherche académique californiens
– l’Université de Californie à San Diego et celle de Berkeley, mais aussi Caltech – ont fait des avancées récentes sur le sujet, avec les électrodes placées à la surface du cerveau et des systèmes d’intelligence artificielle entraînés à reconnaître certains motifs d’activité du cerveau du patient – c’est ce que l’on appelle le brain to speech, dont je parlais tout à l’heure. Ils ont découvert que les mêmes régions soutenaient le langage parlé intentionnel et le langage intérieur. Nous nous approchons donc là de la possibilité de détecter la base de la pensée. L’objectif est ici de venir en aide et de restaurer l’autonomie de personnes gravement cérébrolésées. Malheureusement, nous ne connaissons pas les intentions réelles de sociétés commerciales qui développent aussi ce type d’électrodes de surface.
En termes d’encadrement, est-ce que ces dispositifs, que ce soient des casques, des plugs dans les oreilles ou des implants, sont encadrés aujourd’hui, par exemple avec des autorisations de mise sur le marché comme pour les médicaments ?
H. C. : Si c’est un dispositif médical, il y a tout l’encadrement habituel. Si c’est un dispositif non médical, il n’y a rien : aucune garantie.
Dans la déclaration de l’Unesco, vous recommandez de classer « sensibles » certaines données biométriques, qui ne semblent pas susceptibles de donner accès aux émotions ou aux pensées au premier abord. Pourquoi ?
H. C. : On peut utiliser des données qui ne sont pas directement des données cérébrales ou neurales pour faire des déductions sur l’état émotionnel ou de santé : on a parlé des mouvements des yeux, mais il y a aussi le rythme cardiaque combiné à des données comportementales ou à la voix.
Par exemple, si vous enregistrez la voix d’une personne atteinte de la maladie de Parkinson, même débutante, vous allez voir qu’il y a des anomalies de fréquence qui sont caractéristiques de cette maladie. Il n’y a pas forcément besoin d’être capable d’enregistrer l’activité cérébrale pour déduire des choses très privées.
Donc, on a regroupé cet ensemble sous le terme de « données neurales indirectes et données non neurales » : ces données qui, combinées et interprétées par l’intelligence artificielle, permettent de faire des inférences sur nos états mentaux.
Vous recommandez donc de protéger toutes les données neurales – qu’elles soient directes ou indirectes –, car elles permettent d’en déduire des états mentaux, et ce, afin de protéger nos « vies privées mentales ». Pouvez-vous nous expliquer ce que vous entendez par là ?
H. C. : Parmi les droits fondamentaux, il y a le droit à la vie privée. C’est le droit d’empêcher qui que ce soit de connaître les éléments de votre vie privée que vous ne souhaitez pas qu’il ou elle connaisse.
Nos pensées, nos idées, nos désirs, tout ce qui se passe dans notre tête, sont ce que nous avons de plus intime et, donc, de plus privé. La vie mentale est au cœur même de la vie privée.
Souvent, quand on parle d’atteinte à la vie privée, on pense à la diffusion d’une photo qui serait prise à un endroit ou avec une personne, alors qu’on n’avait pas forcément envie que cela se sache. Mais vous imaginez si demain on pouvait avoir accès à vos pensées ? Ça serait absolument dramatique : la fin totale de toute forme de vie privée.
En pratique, imaginons que notre conversation en visioconférence soit enregistrée par un fournisseur de services Internet. Nos saccades oculaires, qui sont donc des données neurales indirectes, sont bien visibles. Est-il possible, aujourd’hui, d’en déduire quelque chose ?
H. C. : En principe, il pourrait y avoir un petit message qui s’affiche sur mon écran en disant : « Attention, la personne en face de vous est en train de s’endormir, il faudrait veiller à raconter quelque chose de plus intéressant. » (rires) Sauf que nous sommes en Europe, et que dans le règlement européen sur l’IA, l’AI act, l’utilisation de logiciels ayant pour objectif de détecter ou d’analyser le comportement des personnes, en dehors de la médecine ou de la recherche, est interdite.
Avec le règlement général sur la protection des données (RGPD) pour protéger nos données personnelles, puis avec l’AI Act, l’Union européenne a déjà pris des mesures de protection de la vie privée et de l’autonomie des individus… Parce qu’une fois que vous avez ces différentes données, vous pouvez essayer de manipuler les personnes, en biaisant leur jugement, ou en essayant de leur faire prendre des décisions qui ne sont plus prises en autonomie. Notre vie privée mentale est aussi la base de notre liberté d’expression et de notre liberté de penser.
Aujourd’hui, dans le cadre d’autres nouvelles technologies, on en vient à chercher à protéger les mineurs, notamment en leur interdisant l’accès à certains dispositifs. C’est le cas sur certains réseaux sociaux et c’est en discussion pour certaines IA génératives, comme ChatGPT. Est-ce une direction que vous recommandez pour les neurotechnologies ?
H. C. : Tout à fait ! Il ne faut jamais oublier que le cerveau d’un enfant n’est pas un petit cerveau adulte, mais un cerveau en développement. De la même façon, le cerveau d’un adolescent n’est pas un petit cerveau adulte, mais un cerveau en révolution – qui se reconfigure.
Aujourd’hui, l’impact de l’utilisation de ces procédés de neurotechnologies sur ces cerveaux en développement est totalement inconnu et, en particulier, la réversibilité de tels impacts potentiels.
Même pour des applications médicales, pourtant mieux encadrées, les choses ne sont pas si simples. Il y a, par exemple, des cas de patients ayant reçu des implants cérébraux pour soigner des pathologies, notamment des céphalées de Horton, avant que l’entreprise responsable de l’implant fasse faillite et ferme, laissant les patients avec des implants sans maintenance. À l’heure où les développements technologiques sont menés en grande partie par des entreprises privées, quels sont les espoirs et les mécanismes qui permettent de croire qu’on peut cadrer le développement des neurotechnologies pour protéger les citoyens du monde entier de potentiels abus ?
H. C. : On parle là de « développement responsable » des technologies. Ce sont des problématiques que nous avons abordées dans le cadre de l’Organisation de coopération et de développement économiques (OCDE), avec une recommandation (no 457), publiée en décembre 2019, qui énonçait neuf principes pour un développement responsable des neurotechnologies. C’est ensuite aux États membres de l’OCDE de la mettre en pratique. Dans ce cas, il n’y en a que 38, bien moins qu’à l’Unesco, avec 195 pays membres.
La nouvelle déclaration qui doit être signée à l’Unesco reflète une vision qui part des droits humains et qui protège les droits humains fondamentaux ; à l’OCDE, il s’agit d’une vision qui cherche le développement économique. Nous cherchions donc dans quelles conditions les entreprises pourront le mieux développer leurs produits : parmi ces conditions, la confiance que le consommateur peut avoir dans le produit et dans l’entreprise.
Malheureusement, dans ce contexte-là, pour l’instant, on n’a pas encore de réponse claire à votre question, sur ce que l’on appelle en anglais « abandonment », que l’on appellerait en français l’« abandon neural ». Des propositions sont en cours d’élaboration, par exemple au niveau du comité Science & société du programme européen EBRAINS.
Néanmoins, au niveau français, avec différents ministères, en collaboration avec les entreprises, avec le secteur associatif et aussi avec le secteur académique, on a élaboré une charte française de développement responsable des neurotechnologies, qui a l’intérêt de vraiment avoir été une coconstruction entre les différents partenaires, une codécision qui porte sur la protection du consommateur, sur son information et sur la prévention des mésusages des neurotechnologies. Elle a été publiée en novembre 2022. La signer est une démarche volontaire, mais qui marche aujourd’hui plutôt bien puisqu’on en est, à ce jour, à une cinquantaine de partenaires : beaucoup d’entreprises, d’associations, d’académies et des agences de régulation.
Ce qui est intéressant aussi, c’est que nous avons ensuite porté cette proposition au niveau européen. La charte européenne des neurotechnologies est très inspirée de la charte française. Elle a été publiée en mai 2025 et a déjà recueilli près de 200 signataires. Le but est d’apporter aux différentes sociétés qui y adhèrent une sorte de « label » pour dire aux consommateurs, « On a fait le choix de respecter mieux vos droits et donc de s’engager dans cette charte des neurotechnologies ».
Cette démarche est plus que nécessaire. Une étude américaine, réalisée en 2024 par la Neurorights Foundation sur 30 entreprises, majoritairement américaines, qui commercialisent des casques EEG et d’autres produits de neurotechnologie, montre que 29 de ces 30 entreprises ne respectaient absolument pas les recommandations de l’OCDE. Par exemple, certaines collectaient et/ou revendaient les données sans l’accord des personnes.
La philosophie, en portant cette discussion auprès de la Conférence générale de l’Unesco, c’est d’avoir une plateforme mondiale, d’ouvrir la discussion dans des pays où elle n’a pas déjà lieu ?
H. C. : Oui, les recommandations de l’Unesco servent en général de base aux différentes juridictions des États membres pour mettre en place des lois afin de protéger les citoyens de l’État.
Avec les neurotechnologies, on est vraiment à un niveau constitutionnel parce qu’il s’agit de droits fondamentaux : le droit à la vie privée, le droit à l’autonomie, le droit à la liberté de pensée, le droit à la liberté d’agir, mais aussi le droit à l’accès aux technologies si elles sont utiles – que les gens qui en ont besoin puissent y avoir accès.
Le Chili est le premier pays à avoir explicité ces droits dans sa Constitution. Le Colorado et la Californie aux États-Unis ont déjà légiféré pour encadrer les neurotechnologies. En France, c’est dans la loi bioéthique, telle qu’elle a été révisée en 2021, que l’on trouve des éléments pour essayer de protéger contre des abus. Au niveau européen, c’est la déclaration de Léon (2023).
Ainsi, même si les déclarations de l’Unesco ne sont pas contraignantes, elles inspirent en général les juristes des pays correspondants.
Y a-t-il des risques que la déclaration de l’Unesco ne soit pas signée en novembre lors de la Conférence générale ?
H. C. : Maintenant que les États-Unis se sont retirés, je ne crois pas… La conférence intergouvernementale que j’ai présidée au mois de mai a adopté la recommandation, il y avait 120 États. Les choses ne sont pas faites, bien sûr, mais on espère que le passage à l’Assemblée générale, avec les 195 pays présents, sera plutôt une formalité.
Les instances internationales sont très formelles. Elles fonctionnent comme ça ; et c’est peut-être une limite du fonctionnement onusien, qui s’appuie sur l’idée un peu irénique de René Cassin et d’Éléonore Roosevelt, après ce qui s’était passé d’effroyable pendant la Deuxième Guerre mondiale, que les États sont de bonne volonté.
On n’est plus tout à fait dans ce cadre-là.
H. C. : Oui, vous avez remarqué, vous aussi ? Mais, si ça marche, on sera surtout heureux d’y avoir contribué en temps et heure. Parce que là, et c’est une chose qui est assez remarquable, c’est qu’on prend les mesures au bon moment. Pour une fois, les réflexions éthiques et de gouvernance ne sont pas en retard sur la technique.
On espère donc que ce sera vraiment utile, et que les neurotechnologies continueront à se développer à bon escient, parce qu’on en a absolument besoin, mais que, grâce à cette prise de conscience précoce, on évitera les abus, les utilisations détournées ou malveillantes de ces technologies.
Et donc : vivrons-nous tous dans la matrice (je fais référence au film Matrix) ?
H. C. : Peut-être qu’il peut y avoir de bons côtés à la matrice et de mauvais côtés. Si ces différents procédés pouvaient rendre leur autonomie, par exemple, à des personnes âgées qui souffrent d’une perte d’autonomie, à des malades qui sont en perte d’autonomie, ou aider des enfants qui ont des difficultés à apprendre à mieux apprendre, là on aura vraiment gagné. Par contre, si c’est pour soumettre les individus à des volontés d’entreprises monopolistiques, là on aura tout perdu. Mais l’avenir n’est pas écrit. C’est à nous de l’écrire.
Toutes les fonctions listées ci-après l'ont été à titre bénévole: Expert pour les neurotechnologies auprès de l'OCDE de 2015 à ce jour. Ancien président du Comité international de bioéthique de l'UNESCO (2019-2021) et co-auteur du rapport sur les enjeux éthiques des neruotechnologies (2021). Co-président du groupe d'experts ad hoc sur la recommandation UNESCO sur les neurotechnologies (2024-2025). Président du Comité intergouvernemental sur la recommandation sur les neurotechnologie (12-16 mai 2025). Membre du Comité de la Charte française des neurotechnologies Co-auteur de la charte européenne des neurotechnologies
28.10.2025 à 15:32
Guillaume Nord, Hydrologue, Université Grenoble Alpes (UGA)
Brice Boudevillain, Hydro-météorologue à l'Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)
Guy Delrieu, Directeur de Recherche CNRS émérite, hydro-météorologue, Université Grenoble Alpes (UGA)
Isabelle Ruin, Chercheuse, CNRS, Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)
Jason Guillermo Granados Morales, Doctorant en sciences économiques, Université Grenoble Alpes (UGA)
Jean-Dominique Creutin, Hydrométéorologue, Université Grenoble Alpes (UGA)
Yvan Renou, MCF HDR en socio-économie de l'environnement, Université Grenoble Alpes (UGA)

C’est une phrase qui s’est rapidement imposée au moment des inondations meurtrières qui ont touché Valence (Espagne) en octobre 2024 : « Seul le peuple sauve le peuple. » Elle est aujourd’hui inscrite sur des centaines de mosaïques, qui, partout dans la ville, indiquent le niveau de la crue. Cette phrase peut aussi se révéler pertinente, voire même cruciale, pour prévenir les prochaines catastrophes, note un groupe de chercheurs.
Il y a un an, le 29 octobre 2024, un orage méditerranéen violent touchait le Sud-Est espagnol, provoquant une inondation catastrophique de la communauté autonome de Valence. Celle-ci a fait 229 victimes et des dégâts matériels et environnementaux considérables. L’hiver dernier, alors que les causes climatiques et urbanistiques de la catastrophe étaient établies, et que les polémiques sur les responsabilités politiques de la gestion de la crise se poursuivaient, un artiste a apporté un message qui semble résumer les leçons qu’il faudrait tirer de la catastrophe pour transformer la ville et la réhabiter.
L’illustrateur Michael Barros, habitant de Sedaví dans la banlieue inondée de Valence, a ainsi lancé en février 2025 une initiative artistique inspirée des repères de crue posés à la suite de l’inondation de 1957. Il a, au départ, créé une centaine de carreaux de faïence (azulejos) qu’il pensait proposer dans son voisinage. Ces derniers ont eu un succès inattendu : il en existe plus de 2 000 aujourd’hui.
Ces azulejos rappellent, dans leur partie haute, jusqu’où l’inondation est montée : « Fins ací va arribar la riuà » (en français : « La crue est montée jusqu’ici »). Ils évoquent aussi, dans leur partie inférieure, le grand élan de solidarité visible au moment de la catastrophe où des milliers de personnes sont venues aider. Barros dessine la marche des sauveteurs bénévoles arrivant dans la zone inondée par une passerelle enjambant la rivière.
Il reprend aussi la phrase « Sols el poble salva al poble », soit en français : « Seul le peuple sauve le peuple. » Ce slogan avait envahi les réseaux sociaux au moment de la catastrophe et il a été l’objet de commentaires dans la presse sur son origine et sur son utilisation politique.
En plus du message classique des repères de crue indiquant la hauteur atteinte par les eaux, les azulejos de Michael Barros rappellent aussi que se protéger de l’inondation reste l’affaire de tous. Un double message particulièrement pertinent : les causes de l’inondation de 2024 et ses ravages ont pu être bien décrites par le travail de divers scientifiques, mais pour autant, l’anticipation des prochains événements à risque ne doit pas être réservée aux seuls experts, dont les recommandations ponctuelles peuvent être vite oubliées. En cela, le peuple est bien le protecteur du peuple.
Les inondations ont des causes climatiques bien établies. Les conditions météorologiques responsables de la violence des cyclones méditerranéens sont connues. Dans le cas de la région de Valence, il s’agit souvent de dépressions isolées en altitude (en espagnol, depresión aislada en niveles altos ou DANA) qui extraient, par évaporation, d’énormes quantités d’eau de la Méditerranée et qui les transforment en précipitations diluviennes et destructrices.
Les méthodes d’attribution montrent que le réchauffement climatique est responsable, dans la région de Valence, d’une augmentation de moitié des surfaces exposées à des pluies extrêmes et de près d’un quart de leurs cumuls.
La catastrophe qui en a résulté est liée à une conjonction de plusieurs raisons. Pour protéger Valence après la crue dévastatrice du fleuve Turia en 1957, le cours du fleuve avait été détourné du centre-ville. Depuis lors, au sud de la ville, des digues le dirigent vers la mer. Pensant le risque d’inondation écarté, de nouveaux quartiers résidentiels et industriels et leurs infrastructures de transport se sont développés au sud de ces digues à partir des années 1970, formant la banlieue de l’Horta Sud (en castillan, Huerta Sur).
En 2024, la crue du Turia a été bien contenue par les digues, mais l’Horta Sud a alors été traversée par l’arrivée rapide et massive des eaux de la Rambla de Poyo. Ancien affluent du Turia, ce fleuve côtier mineur (400 km2 d’aire drainée), dont le haut bassin a reçu un cumul de pluie extrême (près de 400 mm en six heures), a produit un débit de pointe largement supérieur à la crue de la Seine à Paris, en 1910 : celui-ci a été estimé à 3 000 mètres cubes par seconde !
En région méditerranéenne, ces petites rivières intermittentes, les ríos secos, accentuent la surprise et la désorientation face à l’inondation en masquant l’origine du danger. Elles sont invisibles par temps sec, dissimulées par les aménagements, sans continuité amont aval claire, y compris dans leurs noms.
En plus de ces contextes météorologiques et urbanistiques particulièrement critiques, l’absence d’alerte en temps utile a produit un bilan humain tragique, associé à une cascade de dommages matériels et environnementaux. La catastrophe a mis au jour une grande impréparation politique et sociale.
Devant la répétition de catastrophes qui se ressemblent se pose la question de la résilience des métropoles face aux manifestations climatiques – et, en particulier, aux inondations rapides dans la région méditerranéenne. La réponse doit associer connaissance de la trajectoire historique locale, engagement du public et restauration écologique.
La trajectoire historique du développement économique et social de l’Horta Sud s’est pensée à l’abri des infrastructures de protection. Maintenant que ce secteur s’avère fortement exposé au risque d’inondation par la Rambla, la difficulté pratique et économique, pour réduire cette exposition, est considérable.
Adapter la forme urbaine et les activités qui l’accompagnent va demander des efforts sur le temps long pour lutter contre l’inertie du système institutionnel et des pratiques individuelles.
Des politiques publiques européennes, nationales et locales relatives au risque inondation promeuvent l’engagement du public. Leurs objectifs d’intégration et d’optimisation de la gestion du risque conduisent à la construction d’une culture du risque « par le haut », c’est-à-dire, par les savoirs experts, faisant des inondations une affaire de « management ».
Ces politiques oublient souvent que l’expertise doit s’accompagner d’actions capables de régénérer l’engagement, l’action collective, dans une construction « par le bas ». Apprendre à faire face au risque ensemble, par des pratiques qui s’inscrivent dans la durée et qui impliquent directement les communautés concernées, permettrait d’éviter l’écueil du court-termisme et du seul technicisme, qui a posé et posera de nouveaux problèmes si rien ne change.
La restauration écologique promet des solutions fondées sur la nature dont la mise en place commence, à Valence, par des mesures comme la réduction de l’artificialisation des sols ou le rééquilibrage du lit des rivières. Elle se heurte souvent à la rigidité de la trajectoire de développement et au manque d’engagement, voire à l’hostilité du public.
À lire aussi : Nos villes doivent être plus perméables : comment le biochar peut être une solution durable face aux inondations
Dans l’après-crise immédiate, de multiples initiatives ont surgi. Celles-ci sont propres à impliquer le public, comme des expériences d’enseignement à l’école primaire ou les précieuses mesures météorologiques amateurs. Elles méritent d’être inscrites dans un cadre de réflexion général.
Nous pensons qu’analyser les valeurs relationnelles, comprises comme liens inséparables des personnes à l’environnement, peut aider à dégager les principaux facteurs de motivation du public pour participer à la gestion des inondations. Au-delà des recommandations des experts, il ressort de cette analyse que l’imaginaire est un puissant levier de transformation.
Avoir une vision partagée de comment vivre avec la rivière dans le futur apparaît comme le plus fort gage de motivation. C’est particulièrement important face à la perte de mémoire chronique qui s’installe au fil du temps qui sépare les catastrophes, ce que l’historien Christian Pfister appelle disaster gap.
L’initiative spontanée d’un artiste comme l’illustrateur Michael Barros prend, dès lors, tout son sens. Traces matérielles de l’ampleur de l’inondation passée, ses repères de crue en céramique délivrent un message de raison et d’espoir, dans la mesure où les personnes qui les collent chez elles ou sur leur façade en prennent l’initiative. Dans une interview, l’artiste revenait sur leur rôle pour la mémoire collective :
« J’espère qu’au fil des ans, cela deviendra un prétexte pour parler et réfléchir, pour raconter à la fois les bonnes et les mauvaises choses. Cela génère une mémoire historique, pour que le passé continue d’être latent et que cela ne se reproduise plus. Parce que personne ici n’aimerait déménager ou vivre avec l’inquiétude que cela se reproduise. Nous espérons donc que les mesures nécessaires seront prises, qu[e les autorités] mettront de côté les conflits et qu’elles travailleront avec les gens, ce qui est important, après tout, si l’on s’implique en politique, c’est pour travailler pour les gens, pas pour les intérêts de quelques-uns ».
Les azulejos de Michael Barros peuvent donc être vus comme la piste sociomatérielle d’un imaginaire qu’il souhaite partager pour réhabiter sereinement dans sa région. Cette piste peut – et doit – toucher une communauté élargie, nourrir au quotidien de nouvelles valeurs, une nouvelle culture de l’eau et du risque d’inondation.
Guillaume Nord reçoit des financements de l'INSU-CNRS pour le fonctionnement de l'Observatoire Hydrométéorologique Méditerranéen Cévennes-Vivarais, service national d'observation labellisé par cet institut et dont il a la responsabilité.
Brice Boudevillain reçoit des financements de l'INSU-CNRS pour le fonctionnement de l'Observatoire Hydrométéorologique Méditerranéen Cévennes-Vivarais, service national d'observation labellisé par cet institut et dont il a la responsabilité.
Isabelle Ruin reçoit des financements de recherche dans le cadre du Programme et équipements prioritaires de recherche pour le climat : Transformer la modélisation du climat pour les services climatiques (PEPR TRACCS) et du projet ANR kNOW-HOW+4°C.
Jason Guillermo Granados Morales a reçu des financements du ministère de l'Enseignement supérieur, de la Recherche et de l'Innovation, dans le cadre d'un contrat doctoral de droit public.
Yvan Renou reçoit des financements de recherche dans le cadre du Programme et équipements prioritaires de recherche pour le climat : Transformer la modélisation du climat pour les services climatiques (PEPR TRACCS) et du projet ANR kNOW-HOW+4°C.
Guy Delrieu et Jean-Dominique Creutin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
28.10.2025 à 15:32
Marwa Lahimer, Chercheuse associée - UMR-I 01 Périnatalité & Risques Toxiques (Peritox), centre universitaire de recherche en santé, Université de Picardie Jules Verne (UPJV)
Hafida Khorsi, Professeur des universités en microbiologie, PériTox - Périnatalité et Risques Toxiques - UMR_I 01, UPJV / INERIS, Université de Picardie Jules Verne (UPJV)
Moncef Benkhalifa, Professeur de médecine et biologie de la reproduction, Cecos de Picardie, CHU Amiens Picardie - chercheur UMR-I 01 Périnatalité & Risques Toxiques (Peritox), centre universitaire de recherche en santé, Université de Picardie Jules Verne (UPJV)
Sophian Tricotteaux-Zarqaoui, Doctorant, laboratoire Périnatalité et Risques toxiques (UMR_I 01), Université de Picardie Jules Verne (UPJV)
Si on a longtemps considéré que l’infertilité était un problème purement féminin, on sait aujourd’hui qu’il n’en est rien. Selon certaines estimations, 20 % à 30 % des cas sont directement imputables à des problèmes touchant les hommes. En marge des facteurs liés aux modes de vie, un faisceau d’indices semble incriminer notamment certains polluants environnementaux, tels que les pesticides.
À ce jour, l’Organisation mondiale de la santé (OMS) estime qu’environ 17,5 % de la population adulte, soit une personne sur six dans le monde est touchée par l’infertilité. Diverses études scientifiques indiquent que cette proportion devrait continuer à progresser jusqu’en 2040.
Ce problème majeur a plusieurs causes, dont certaines sont liées à l’évolution des modes de vie. Sous la pression des contraintes professionnelles ou économiques, l’âge de la parentalité a notamment tendance à reculer dans de nombreux pays.
Toutefois, depuis plusieurs années, les travaux de recherches pointent également le rôle de divers polluants environnementaux, tels que certains pesticides dans l’infertilité. De par leur capacité à perturber le fonctionnement hormonal, ces molécules interfèrent avec le système reproducteur. Nos travaux ont notamment mis en évidence que l’exposition à certaines de ces molécules se traduit, chez les hommes, par une diminution de la qualité du sperme.
L’infertilité est définie comme l’incapacité à obtenir une grossesse après douze mois de rapports sexuels réguliers et non protégés. Lorsqu’elle affecte des couples qui n’ont jamais réussi à concevoir, on parle d’infertilité « primaire ». L’infertilité « secondaire » touche quant à elle les couples qui ont déjà vécu une grossesse, mais qui éprouvent des difficultés à concevoir de nouveau.
Longtemps, l’infertilité a été considérée comme résultant uniquement de problèmes affectant les femmes. En effet, confrontés à une telle situation, les hommes ont tendance à considérer que l’échec de conception remet en question leur virilité, ce qui peut les pousser à refuser les tests médicaux (ou à rejeter la faute sur leur partenaire). Cela a longtemps contribué à passer sous silence une potentielle responsabilité masculine, renforçant l’idée fausse que seules les femmes peuvent être responsables de l’infertilité.
À lire aussi : Pollution : quand l’environnement menace la fertilité féminine
Si, dans certains pays, les hommes ont encore du mal à reconnaître leur implication dans ce problème majeur, les progrès médicaux ont fait peu à peu prendre conscience que l’infertilité pouvait aussi avoir des origines masculines.
On sait aujourd’hui qu’au moins 20 % des cas sont directement imputables aux hommes, et que ces derniers contribuent à 50 % des cas d’infertilité en général.
Les causes de l’infertilité peuvent être multiples. Chez la femme comme chez l’homme, la capacité à engendrer est influencée par l’âge.
Les femmes naissent avec un stock limité d’ovules, qui diminue progressivement avec l’âge, ce qui s’accompagne d’une baisse progressive de la fertilité, jusqu’à la ménopause. Les hommes, quant à eux, sont affectés à partir de la quarantaine par une diminution de la qualité du sperme (notamment le fonctionnement des spermatozoïdes, les gamètes mâles), ce qui a également des conséquences en matière de fertilité.
À lire aussi : Pollution : quand l’environnement menace la fertilité féminine
Parmi les causes « non naturelles », les scientifiques s’intéressent de plus en plus aux effets de la pollution et des pesticides. Aux États-Unis, les travaux de l’USGS (United States Geological Survey), la principale agence civile de cartographie aux États-Unis, ont révélé qu’environ 50 millions de personnes consomment des eaux souterraines exposées aux pesticides et d’autres produits chimiques utilisés dans l’agriculture.
Preuve des préoccupations des autorités, pour réduire les intoxications causées par les pesticides, en particulier chez les travailleurs agricoles et les manipulateurs de pesticides, des protections professionnelles sont offertes à plus de 2 millions de travailleurs répartis sur plus de 600 000 établissements agricoles via la norme de protection des travailleurs agricoles (WPS) et l’agence de protection de l’environnement (EPA).
Ces précautions ne sont pas étonnantes : ces dernières années, les scientifiques ont rassemblé de nombreux indices indiquant que l’exposition aux pesticides représente un danger pour la santé publique, et peut notamment se traduire par des problèmes d’infertilité.
L’analyse du taux de prévalence de l’infertilité chez les personnes âgées de 15 à 49 ans, dans 204 pays et territoires, entre 1990 et 2021 a récemment révélé que les régions les plus touchées par l’infertilité sont principalement situées en Asie de l’Est, en Asie du Sud et en Europe de l’Est.
Cette problématique concerne aussi la France, pays considéré comme l’un des plus grands consommateurs de pesticides dans le monde. Il est important de mettre en lumière cette situation, car la plupart des personnes qui souffrent d’infertilité ne la connaissent pas.
L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a classé diverses substances dans la catégorie des perturbateurs endocriniens : le bisphénol A (BPA), les phtalates et leurs métabolites, ou certains pesticides, tels que les biphényles polychlorés (PCB), le glyphosate, le dichlorodiphényltrichloroéthane (DDT) et le méthoxychlore.
Pour mémoire, les perturbateurs endocriniens sont des substances imitant ou interférant avec l’activité des hormones, donc capables de perturber le fonctionnement hormonal, et ce, même à très faible dose.
En ce qui concerne les pesticides, les systèmes de surveillance environnementale et sanitaire se sont longtemps focalisés sur les substances actives, négligeant en grande partie les composés issus de leur dégradation, appelés « métabolites ».
Pourtant, on sait aujourd’hui que, dans certains cas, les métabolites peuvent exercer un effet biologique plus important que la substance mère elle-même. Dans le cas des pesticides, ces composés secondaires sont souvent persistants et peuvent jouer un rôle significatif dans les effets toxiques à long terme. C’est en particulier le cas en ce qui concerne la fertilité humaine.
Cette omission dans les stratégies de suivi a retardé la reconnaissance de la contribution potentielle des métabolites de pesticides à la baisse de la fertilité observée dans certaines populations exposées.
Les preuves scientifiques suggèrent en effet qu’une exposition prolongée à des perturbateurs endocriniens peut nuire à la fertilité masculine, en affectant divers aspects de la fonction hormonale, avec notamment des conséquences sur la spermatogenèse (autrement dit la production et de la qualité du sperme).
En 2023, nous avons mené une étude rétrospective portant sur une population de 671 hommes vivant en Picardie. Les résultats ont montré que, chez le groupe exposé, que les spermatozoïdes étaient moins actifs et se déplaçaient moins bien. De plus, nous avons observé que l’ADN des spermatozoïdes était plus souvent fragmenté, et que leur structure était moins stable.
Au-delà des conséquences liées à l’exposition à un perturbateur endocrinien donné, la question de l’exposition à des mélanges de substances capables de perturber le système hormonal se pose avec une acuité grandissante.
Outre les pesticides et leurs métabolites, nous sommes en effet quotidiennement en contact avec de nombreuses molécules présentant des propriétés de perturbation endocrinienne. On peut par exemple citer les bisphénols utilisés pour remplacer le bisphénol A, composés perfluorés (PFAS, les alkylphénols (utilisés dans les détergents), ou encore les phtalates, dont on sait qu’ils peuvent altérer la production hormonale, perturber la maturation des cellules reproductrices et affecter la qualité du sperme (en plus d’affecter négativement la fertilité féminine).
Or, parfois, le fait d’être présentes dans un mélange modifie l’activité de certaines molécules, ce qui peut accroître leur toxicité. Certains facteurs environnementaux, tels que la pollution de l’air, peuvent également exacerber ces effets.
Dans notre corps, la production des hormones, et notamment de celles qui contrôlent la fertilité, est sous l’influence de l’axe hypothalamo-hypophysaire. Ce dernier est en quelque sorte la « tour de contrôle » qui régule le trafic hormonal. Comme son nom l’indique, il est constitué par l’hypothalamus, une région du cerveau impliquée dans de nombreux processus essentiels (métabolisme, croissance, faim et soif, rythme circadien, thermorégulation, stress et reproduction) et par l’hypophyse, une glande de la taille d’un petit pois qui se trouve à la base du cerveau.
L’hypothalamus libère une hormone appelée GnRH (GnRH, pour gonadotropin-releasing hormone), qui stimule l’hypophyse. En réponse, l’hypophyse libère à son tour deux hormones clés : la FSH (hormone folliculo-stimulante) et la LH (hormone lutéinisante). Ces hormones stimulent la production de testostérone par les testicules.
Les perturbateurs endocriniens ont la capacité de se fixer sur les récepteurs hormonaux. Ce faisant, ils perturbent la production des hormones sexuelles masculines, telles que la testostérone et l’œstradiol, qui sont cruciales pour le développement et le maintien des fonctions reproductives.
On l’a vu, les perturbateurs endocriniens interfèrent avec le système hormonal en imitant ou en bloquant les hormones naturelles. Certains d’entre eux donnent également de faux signaux à l’hypothalamus ou à l’hypophyse, ce qui dérègle la production de FSH et de LH, empêchant ainsi le bon fonctionnement des testicules.
Grâce à des études expérimentales menées dans notre laboratoire sur des rats de Wistar, nous avons démontré que l’exposition à certains produits chimiques et la consommation d’une alimentation riche en graisses pouvaient avoir un impact négatif sur la reproduction. Nos principaux résultats indiquent une diminution significative du poids des petits rats exposés à l’insecticide chlorpyrifos à partir du 30e jour. Ce phénomène est encore plus marqué au 60e jour après la naissance.
L’analyse des tissus a révélé chez les femelles une augmentation du nombre de follicules détériorés. Chez les mâles, nous avons constaté que la structure des testicules était anormale, ce qui engendre une perte de cellules germinales (les cellules intervenant dans la production des spermatozoïdes).
De plus, chez des rats exposés au chlorpyrifos et à un régime riche en graisses, nos travaux ont mis en évidence une baisse significative de certaines protéines essentielles à la régulation hormonale. C’est par exemple le cas de deux hormones sécrétées par les neurones de l’hypothalamus : la GnRHR (hormone de libération des gonadotrophines hypophysaires, responsable notamment de la synthèse et de la sécrétion de LH) et la kisspeptine (qui joue un rôle majeur dans la mise en place de la puberté et dans la régulation de la reproduction).
Pour limiter les risques, il est important d’adapter ses comportements afin de réduire au maximum son exposition aux perturbateurs endocriniens. L’adoption de certains gestes simples peut y participer :
privilégier une alimentation bio, afin de limiter l’exposition aux pesticides (en ce qui concerne l’eau, diverses questions se posent, en particulier celle de la qualité de l’eau du robinet dans les régions fortement agricoles ; ces zones peuvent en effet être contaminées par des résidus de pesticides, des nitrates ou d’autres produits chimiques provenant des pratiques agricoles) ;
laver soigneusement les fruits et légumes avant de les consommer et de les éplucher si possible ;
porter des équipements de protection en cas d’utilisation de pesticides, en particulier en milieu professionnel. Rappelons que les agriculteurs sont les premières victimes directes de ces substances ;
sensibiliser les populations et promouvoir des pratiques agricoles responsables.
Sophian Tricotteaux-Zarqaoui a reçu des financements pour son doctorat de la Région Haut-de-France (50%), de la Mutualité Sociale Agricole of Picardie (25%) et de ATL Laboratories (25%).
Hafida Khorsi, Marwa Lahimer et Moncef Benkhalifa ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
28.10.2025 à 15:31
Franck Frégosi, Politiste, directeur de recherche au CNRS, laboratoire Groupe Sociétés, Religions, Laïcités, Aix-Marseille Université (AMU)
À travers des lois et des discours ou par la promotion de certains acteurs religieux et le rejet d’autres, l’État cherche à encadrer l’expression publique de la foi musulmane en France, à rebours du principe de laïcité. Certains procédés employés trouvent leurs origines dans le passé colonial, notamment en Algérie, comme l’analyse Franck Fregosi, auteur de Gouverner l’islam en France (Seuil, 2025).
Depuis une trentaine d’années, différentes étapes ont jalonné le gouvernement de l’islam en France, passant notamment par un processus d’institutionnalisation par le haut de cette religion. Plusieurs lois sur la visibilité urbaine de l’islam s’intègrent également dans ce processus, comme la loi du 15 mars 2004 interdisant le voile dans les écoles publiques, ou celle du 10 octobre 2010 proscrivant quant à elle toute dissimulation du visage dans l’espace public, sans oublier la loi « confortant le respect des principes de la République » du 21 août 2021.
Toutes ces politiques s’inscrivent dans un processus global qui converge vers le reformatage de la visibilité du fait musulman, au travers de la mise en place de dispositifs institutionnels et législatifs, ou au prisme de discours officiels sur l’islam – citons, notamment, les discours d’Emmanuel Macron à Mulhouse (Haut-Rhin) et aux Mureaux (Yvelines), en 2020, qui, après la lutte contre l’islamisme violent, font de la lutte contre le « séparatisme » le nouvel objectif du gouvernement. Il vise également à la structuration de la représentation de l’islam, voire à sa quasi-administration, ainsi qu’à un contrôle social renforcé de l’expression et de la diffusion de cette religion en France.
Ce qui n’était pas possible hier en termes de contrôle étatique avec l’Église catholique romaine, forte de sa tradition de centralisation et de ses interfaces avec le monde politique, semble aujourd’hui davantage envisageable avec des communautés musulmanes minoritaires. Le tout au sein d’une société française profondément sécularisée, où l’indifférence religieuse s’accroît au sein de la population globale et où règne un climat anxiogène par rapport à l’islam, sur fond de dérive autoritaire de la République.
Ce gouvernement de l’islam en France a une histoire : celle-ci remonte à la période coloniale, en Algérie plus particulièrement. Dans son étude pionnière, parue en 2015, l’historienne Oissila Saaidia a notamment analysé les différentes étapes et motivations ayant présidé à ce qu’elle qualifie d’« invention du culte musulman » dans l’Algérie coloniale dès 1851.
À l’époque, cette politique religieuse se résumait à la production d’une classification des édifices cultuels musulmans, à la mise sur pied d’une hiérarchie du personnel les desservant (notamment des imams), et à un processus de nomination de ce personnel. Des liens financiers directs seront ainsi établis afin qu’il soit rémunéré par l’administration coloniale, à qui revenait désormais la propriété des édifices. Une politique dite « des égards » fut aussi engagée : elle consistait à se ménager la bienveillance de responsables musulmans en leur octroyant, par exemple, des décorations pour leur loyalisme, associées à quelques subsides financiers.
Ce processus colonial de concordatisation de l’islam, c’est-à-dire de contractualisation juridico-politique entre l’État et les institutions religieuses afin de garantir la loyauté républicaine des fidèles musulmans, le tout moyennant un soutien et un contrôle accru du culte par les pouvoirs publics, survivra au vote de la loi en métropole portant séparation des Églises et de l’État, en décembre 1905. Celle-ci ne concernera pas, en effet, les trois départements algériens.
Cette logique trouvera son prolongement en métropole avec l’édification de l’Institut musulman de la Grande Mosquée de Paris dans les années 1920. Cet édifice était destiné autant à servir de vitrine de l’entreprise de colonisation, présentée comme respectueuse des besoins religieux de ses sujets musulmans, qu’à s’inscrire là encore dans une politique de contrôle et de surveillance des populations par le biais du religieux. L’institution permettait en effet un contrôle étroit des fidèles fréquentant le lieu, mais aussi la diffusion d’une version officielle de l’islam, bienveillante envers les pouvoirs publics et la politique coloniale.
Une fois passée dans le giron des autorités algériennes durant la décennie 1980, la Grande Mosquée de Paris conservera cette fonction sociale implicite de régulation de l’offre musulmane – destinée cette fois à la diaspora algérienne en France. Elle permettra également de veiller à la loyauté de cette diaspora envers le régime algérien.
Bien qu’il n’y ait de nos jours plus lieu de parler d’une administration directe par les pouvoirs publics du culte musulman – les imams ne sont plus nommés ni rémunérés par l’État – certains responsables politiques, comme Manuel Valls ou Jean-Pierre Chevènement, ont un temps imaginé déroger à la règle du non-subventionnement direct des cultes au profit de l’islam, afin de couper tout lien financier avec l’étranger.
D’autres, comme Gérald Darmanin, et plus récemment Édouard Philippe, semblent même plaider en faveur de l’établissement d’un nouveau Concordat avec l’islam. Force est de constater qu’un certain désir de contrôle de cette religion par la puissance publique continue donc de faire son chemin parmi les élites politiques, sur fond de mise au pas de certaines expressions publiques de l’islam.
À ces logiques classiques, s’en sont progressivement ajoutées de nouvelles, comme la volonté d’œuvrer en vue d’une réforme de l’islam en promouvant – au besoin par la loi – une pratique moins extensive, c’est-à-dire moins visible, de l’islam. Un des aspects de cette réforme souhaitée par certains serait un encadrement des tenues vestimentaires féminines, déjà limitées par les lois de 2004 et de 2010 vues plus haut. Cet encadrement légal a par ailleurs connu de récentes extensions, confirmant par là même que le port du voile ou de tenues supposées connotées religieusement par des jeunes femmes musulmanes n’est pas le bienvenu dans la société.
Plus en amont, s’est aussi mise en place une logique de gouvernance partagée entre l’État et certains opérateurs de l’islam en France, comme le Conseil français du culte musulman (CFCM), créé en 2002. L’État est ainsi en quête d’interlocuteurs musulmans qui acceptent de cheminer aux côtés des pouvoirs publics soit directement dans la structuration conjointe d’une représentation nationale de l’islam, dans le cas du CFCM, soit dans la production de textes (statut type de l’imam, processus de désignation des aumôniers…) censés stabiliser la pratique de l’islam dans le cas du Forum de l’islam de France (Forif), une autre instance voulue par Gérald Darmanin, en 2023.
Se profile aussi à l’horizon un nouveau gallicanisme d’État visant l’islam, c’est-à-dire une situation où la puissance publique, tout en demeurant formellement attachée au principe juridique de laïcité, entend néanmoins soumettre la religion à un contrôle accru de sa part. Dans cette optique, l’État procède à une sélection et à une hiérarchisation des courants de l’islam en France. Elle s’opère non seulement selon leur degré de loyauté envers les pouvoirs publics, mais aussi selon leurs supposées doctrines, qu’agréerait ou non l’État en fonction de leur vision spirituellement en phase avec le modèle républicain et ses lois, ou de leur attitude extensive encourageant le « séparatisme ».
La promotion récurrente d’un « islam républicain » participe précisément de ce projet d’un islam contenu, réputé modéré, voire soluble dans la République. Les polémiques autour de la création voulue par Emmanuel Macron d’un Conseil national des imams en 2021, et surtout la publication d’une Charte des principes pour l’islam de France, que les imams en poste et leurs successeurs devraient ratifier en vue d’être reconnus, en sont les illustrations.
Enfin, n’oublions pas que les récentes politiques de l’islam en France laissent transparaître une grande porosité entre le monde académique des savants et des chercheurs, familiers des mondes musulmans et des dynamiques politico-religieuses se réclamant de l’islam, et l’univers des décideurs politiques au plus haut sommet de l’État (présidence de la République, ministère de l’intérieur…).
Les évènements dramatiques liés au terrorisme islamiste (attentats jihadistes de Paris en 2015 et de Nice en 2016, assassinat de Samuel Paty en 2020…) ont constitué autant de fenêtres d’opportunité dans lesquelles se sont engouffrés des universitaires devenus experts médiatiques, que cela soit dans en vue de populariser leurs analyses, ou dans le but de capitaliser sur leur notoriété déjà ancienne pour acquérir de nouveaux signes de validation et de promotion par les pouvoirs publics.
Les pouvoirs publics sont quant à eux en quête de discours savants susceptibles de concourir à définir le portrait d’un nouvel « ennemi intérieur ». C’est ce que démontre notamment le rapport officiel rendu public en mai 2025 ciblant l’existence d’un risque « frériste » dans l’Hexagone. Alors que jusque-là la gouvernance de l’islam se négociait principalement à travers des échanges entre chargés de mission et fonctionnaires du ministère de l’intérieur d’une part, gestionnaires de lieux de culte et présidents de fédérations musulmanes d’autre part, on note à partir de 2013 un recours plus systématique de l’État à des universitaires et à des chercheurs, qui participent activement à l’élaboration du nouveau référentiel de l’action publique en matière d’islam. Des chercheurs comme Gilles Kepel, Bernard Rougier ou encore Hugo Micheron sont ainsi devenus à la fois des habitués des plateaux médiatiques et des voix écoutées par les pouvoirs publics dans la construction de leurs politiques vis-à-vis de l’islam.
Le chevauchement de plus en plus net entre discours savants et expertise orientée vers les besoins des pouvoirs publics, conduit certains de ces sachants non seulement à accompagner de leurs expertises savantes les soubresauts des mondes musulmans (la guerre civile en Syrie, les exactions de Daech en Irak, la chute du régime Assad en Syrie, le conflit israélo-palestinien…), mais aussi à ériger leurs analyses en unique prisme au travers duquel percevoir les dynamiques de l’islam minoritaire hexagonal. Ce chevauchement se fait par ailleurs au risque de nourrir indirectement un certain récit sur l’islamisation progressive de la France par une supposée conquête territoriale de l’islamisme.
Dans leur sillage, des voix plus militantes encore apportent également leur concours à la théorie d’extrême droite du grand remplacement, sur fond de croisade morale contre l’université française supposée contaminée par l’« islamo-gauchisme » et le « wokisme ». L’anthropologue Florence Bergeaud-Blackler s’exprime ainsi régulièrement sur ces deux thèmes, et affiche sa proximité idéologique avec des officines souverainistes, entre autres liées à la mouvance portée par le milliardaire Pierre-Édouard Stérin.
Il ne s’agit pas de nier que l’islamisme violent puisse avoir des relais ou des agents de promotion en France (et ailleurs en Europe). Il convient cependant de se défier d’approches qui érigeraient systématiquement l’islam vécu au quotidien par des millions de musulmans dans l’Hexagone, parfois sous des formes plus ou moins rigoristes, comme une simple adaptation locale de l’islamisme militant du Moyen-Orient, faisant ainsi fi du contexte historique, social, culturel comme de l’environnement politique et religieux. Le musulman français, fût-il un conservateur ou simplement pieux, ne peut être au motif de son éventuelle lecture intégraliste de l’islam suspecté d’être déjà engagé dans une voie qui le rendra complice des tenants d’une radicalité violente, abusant du référentiel islamique.
À travers ses politiques de gouvernance de l’islam, l’État en France démontre qu’il n’a en fait jamais vraiment renoncé depuis le moment colonial à vouloir gouverner cette religion. Poser ce constat revient à souligner le paradoxe entre, d’une part, l’existence de discours officiels disqualifiant toute effusion politique du religieux hors de l’espace privé et, de l’autre, le maintien et le renforcement de dispositifs publics ciblant des groupes religieux – musulmans, plus spécifiquement. Ce paradoxe nous révèle les impensés qui persistent autour du bon gouvernement de la religion en régime de laïcité.
Franck Frégosi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.10.2025 à 15:31
Vincent Lemire, Professeur en histoire contemporaine, Université Gustave Eiffel
Anna C. Zielinska, MCF en philosophie morale, philosophie politique et philosophie du droit, membre des Archives Henri-Poincaré, Université de Lorraine
Emprisonné depuis vingt-trois ans en Israël pour des crimes qu’il a toujours niés, Marwan Barghouti, aujourd’hui âgé de 66 ans, est selon toutes les enquêtes d’opinion le responsable politique le plus populaire au sein de la population palestinienne. S’il était libéré et participait à la prochaine élection présidentielle promise par Mahmoud Abbas avant fin 2026, ce cadre du Fatah pourrait jouer un rôle fondamental dans l’établissement d’une paix juste et durable entre Israéliens et Palestiniens.
Déterminé à obtenir l’indépendance de la Palestine dans les frontières de 1967, le dirigeant palestinien est tout autant hostile aux attentats visant les civils israéliens. Dans le monde entier, mais aussi en Israël même, des voix influentes demandent sa libération, à laquelle le gouvernement Nétanyahou continue, pour l’heure, de s’opposer.
Marwan Barghouti est né en 1959 à Kobar, non loin de Ramallah. Il a été, à partir de 1994, secrétaire général du Fatah en Cisjordanie et, à partir de 1996, membre du Conseil législatif palestinien, le Parlement de l’Autorité palestinienne créé à la suite des accords d’Oslo. Figure clé de la deuxième Intifada (2000-2005), entré dans la clandestinité en 2001, il est emprisonné en Israël depuis 2002. Le dirigeant palestinien a toujours nié avoir commandité les crimes pour lesquels il a été condamné à perpétuité.
L’homme est parfois qualifié de « Mandela palestinien ». Cette analogie est contestée par certains : alors que Barghouti a participé à des actions militaires, Nelson Mandela aurait prôné la lutte non violente au sein du Congrès national africain (ANC). C’est faux. Mandela a bel et bien fondé, puis dirigé, à partir de mai 1961, l’organisation Umkhonto we Sizwe (Fer de lance de la nation), la branche militaire de l’ANC.
Depuis son emprisonnement il y a vingt-trois ans, la libération de Barghouti n’a longtemps été exigée, au niveau international, que par des partis politiques de gauche (le Parti communiste français, notamment), mais cette revendication est aujourd’hui devenue largement transpartisane. En janvier 2024, Ami Ayalon, ancien chef du Shin Bet (le service de renseignement intérieur israélien), affirme que la remise en liberté de Barghouti est indispensable pour créer une alternative politique en Palestine, et donc un processus de paix effectif. Début octobre 2025, Ronald Lauder, figure clé de la communauté juive américaine, président du Congrès juif mondial depuis 2007, a proposé de se rendre en personne à Charm-el-Cheikh, en Égypte, (où se tenaient les négociations entre Israéliens et Palestiniens) pour inclure la libération de Barghouti dans l’accord final de cessez-le-feu, proposition rejetée par Benyamin Nétanyahou.
Hadja Lahbib, actuelle commissaire européenne à l’aide humanitaire et à la gestion de crises, ancienne ministre belge des affaires étrangères de 2022 à 2024, issue du centre-droit, a déclaré récemment qu’elle voyait en Barghouti « le Nelson Mandela palestinien » qui pourrait « gagner la confiance de son peuple tout en le conduisant vers la paix ».
Enfin, le 23 octobre 2025, Donald Trump, interrogé sur Barghouti dans une interview à Time, a répondu :
« C’est la question du jour. Je vais donc prendre une décision. »
Le même journal a également rapporté que l’épouse de Marwan, l’avocate Fadwa Barghouti, s’est adressée directement au président américain pour lui demander de contribuer à la libération de son mari.
Si, pour l’heure, Benyamin Nétanyahou refuse d’envisager une telle possibilité, cette libération semble moins improbable que par le passé. Mais que veut réellement Marwan Barghouti, que pèse-t-il sur la scène politique palestinienne, et qu’est-ce que son éventuelle libération pourrait changer ?
Diplômé d’un master en relations internationales à l’Université palestinienne de Birzeit (Cisjordanie), avec un mémoire de recherche consacré à la politique du général de Gaulle au Moyen-Orient, Barghouti a été plusieurs fois arrêté pour ses activités à la tête d’organisations étudiantes. Lors de la première Intifada, il est exilé en Jordanie (1987-1993). Son retour en Palestine est rendu possible grâce aux négociations d’Oslo et il devient secrétaire général du Fatah en Cisjordanie en 1994, fervent soutien du processus de paix, tout en s’opposant au maintien de la colonisation.
Pendant la seconde Intifada (2000-2005), il joue un rôle politique de premier plan, en tant que dirigeant des Tanzim, les « organisations populaires » du Fatah, dont certains éléments s’engagent dans la lutte armée. L’action armée des Tanzim se caractérise alors par le refus des attentats suicides et des attaques contre les civils, avec des actions concentrées contre l’occupation israélienne à Gaza et en Cisjordanie. En août 2001, quelques mois avant son arrestation, sa voiture est visée par deux missiles antichars et son garde du corps est tué. Lors de son procès en 2004, Barghouti a rappelé que son rôle au sein du Fatah était avant tout politique et il a toujours nié avoir commandité les meurtres dont il était accusé.
Plusieurs sources témoignent du projet politique du leader palestinien. En 1994, dans un entretien avec Graham Usher, Barghouti se présente comme un pont entre deux cultures politiques palestiniennes : l’une forgée en dehors de Palestine, l’autre sous l’occupation israélienne. Il voit les accords d’Oslo comme la fin du rêve d’un « Grand Israël », puisque le gouvernement israélien a reconnu les Palestiniens en tant que peuple et l’Organisation de libération de la Palestine (OLP) comme son représentant. À ses yeux, l’indépendance est l’objectif prioritaire de la lutte, car elle est la condition indispensable à une évolution démocratique en Palestine. Il défend le pluralisme et craint qu’une victoire du Hamas aux élections législatives de 1996 (et auxquelles le mouvement islamiste ne se présentera finalement pas) ne provoque la mise en place de la loi islamique.
Il plaide pour la création d’institutions véritablement démocratiques afin de préserver le pluralisme, et rappelle que le futur gouvernement palestinien devra respecter les oppositions. Enfin, il voit l’OLP comme une étape transitoire dans le processus de mise en place de l’Autorité palestinienne puis de l’État palestinien. Il compare ce rôle à celui de l’Organisation sioniste mondiale, qu’il décrit comme « une institution internationale qui facilite et soutient le droit au retour ». Son État palestinien idéal est, explique-t-il :
« un État démocratique, fondé sur les droits humains et le respect de la pluralité des confessions et des opinions. Tout ce qui nous a été historiquement refusé dans notre lutte pour une patrie. Pour les Palestiniens, rien de moins ne sera acceptable. »
Dans une autre interview réalisée en 2001, au début de la seconde Intifada, Barghouti déclare notamment que « l’objectif de l’Intifada est de mettre fin à l’occupation israélienne », ce qui signifie concrètement l’arrêt de l’occupation « de l’ensemble des Territoires occupés » et l’établissement « d’un État palestinien indépendant dans les frontières de 1967 ». Au même moment, quelques mois après le déclenchement de la seconde Intifada et par l’intermédiaire d’un haut responsable du Shin Bet, il propose une trêve crédible au premier ministre israélien Ariel Sharon, qui la refuse. Le fait que Barghouti soit en prison depuis 2002 ne l’a pas empêché de participer aux élections parlementaires en Palestine de janvier 2006, les dernières à ce jour, en étant très largement réélu.
Quelques mois avant son arrestation en 2002, Barghouti publie dans le Washington Post une tribune intitulée « Vous voulez la sécurité ? Mettez fin à l’occupation », dans laquelle il dénonce les arguments prétendument sécuritaires d’Ariel Sharon :
« Le seul moyen pour les Israéliens de vivre en sécurité est de mettre fin à l’occupation israélienne du territoire palestinien, qui dure depuis trente-cinq ans. Les Israéliens doivent abandonner le mythe selon lequel il serait possible d’avoir la paix et l’occupation en même temps, avec une possible coexistence pacifique entre le maître et l’esclave. L’absence de sécurité israélienne est née de l’absence de liberté palestinienne. Israël ne connaîtra la sécurité qu’après la fin de l’occupation, pas avant. »
Ces mots n’ont rien perdu de leur évidence frontale et de leur force. À côté de la tragédie à Gaza, l’occupation de la Cisjordanie provoque aujourd’hui des dégâts incalculables chez les Palestiniens bien sûr, mais également au sein de la société israélienne, peu à peu gangrenée par la brutalité systématique et meurtrière de ses colons et de ses soldats.
Comme nous l’a rapporté le philosophe Sari Nusseibeh, l’engagement de Barghouti pour un État palestinien libre et démocratique était déjà visible dans les années 1980, quand il faisait partie des rares activistes palestiniens à discuter ouvertement avec les députés travaillistes en Israël. Sa position est restée inchangée depuis. Dans le texte du Washington Post déjà cité, Barghouti explicite sa ligne stratégique :
« Moi-même et le mouvement Fatah auquel j’appartiens nous opposons fermement aux attaques contre des civils en Israël, notre futur voisin […]. Je ne cherche pas à détruire Israël, mais seulement à mettre fin à son occupation de mon pays. »
Dans une lettre rédigée en 2016, il insiste également sur les réformes profondes qu’il faudra initier en Palestine pour renouveler et consolider le contrat démocratique entre les dirigeants et les citoyens :
« Nous ne pouvons dissocier la libération de la terre et celle du peuple. Nous avons besoin d’une révolution dans nos systèmes éducatif, intellectuel, culturel et juridique. »
Barghouti purge actuellement cinq peines d’emprisonnement à perpétuité. Son procès n’a pas répondu aux standards internationaux : Barghouti et ses éminents avocats – Jawad Boulus, Gisèle Halimi et Daniel Voguet, entre autres – ont plaidé que, selon le droit international, le tribunal du district de Tel-Aviv n’était pas compétent pour juger les faits dont il était accusé. Pour cette raison, Barghouti a refusé de répondre en détail aux accusations portées contre lui (le meurtre du prêtre Georgios Tsibouktzakis et de quatre autres civils), se cantonnant à répéter sa condamnation des attentats terroristes visant des civils.
Sa popularité auprès des Palestiniens est impressionnante. Selon un sondage réalisé en mai 2025 par le Centre palestinien pour la recherche politique, 39 % des électeurs en Palestine (Cisjordanie et Gaza) considèrent Barghouti comme le plus apte à succéder à Mahmoud Abbas, ce qui le place en première position, loin devant Khaled Mechaal, chef politique du Hamas exilé au Qatar, deuxième avec 12 %.
Un autre sondage réalisé juste avant le 7 octobre, en septembre 2023, à l’occasion du 30e anniversaire des accords d’Oslo, montrait déjà qu’en cas d’élection présidentielle 34 % des sondés auraient voté pour Marwan Barghouti au premier tour, et 17 % pour le leader du Hamas Ismaïl Haniyeh. Au second tour, Barghouti l’aurait facilement emporté par 60 % des voix contre Haniyeh, alors qu’Haniyeh l’aurait emporté par 58 % contre Mahmoud Abbas.
Non seulement Barghouti est la personnalité préférée des Palestiniens, le rempart contre le Hamas, mais il redonne confiance dans le processus politique lui-même. Selon ce même sondage, la participation aux élections sera 20 % plus élevée si Barghouti est candidat.
La libération de Marwan Barghouti ne suffira pas pour mettre fin au conflit, qui dure depuis plus d’un siècle. C’est un être humain qui peut commettre des erreurs et qui proposera peut-être certaines solutions qui s’avèreront décevantes. Mais, compte tenu de ce qu’il représente aujourd’hui pour les Palestiniens, sa libération apparaît comme un préalable indispensable à tout processus politique.
Depuis les années 1990, il a fait de la lutte contre la corruption et contre les inégalités femmes-hommes le cœur de son engagement. Leader incontesté du Mouvement des prisonniers, qui regroupe des militants de toutes les factions palestiniennes, il œuvre inlassablement pour une réconciliation nationale. En juin 2006, il initie l’Appel des prisonniers, signé par des militants de toutes obédiences, Hamas et Jihad islamique compris, qui déclare qu’un État palestinien devra être créé « dans les frontières de juin 1967 », ce qui revient à accepter l’existence d’Israël à l’extérieur de ces mêmes frontières.
L’annulation par Mahmoud Abbas des élections législatives de mai 2021, qui devaient marquer la réconciliation entre le Fatah et le Hamas, a été accueillie avec défiance par l’opinion publique palestinienne, qui ne s’identifie plus à ce dirigeant démonétisé, inefficace et dépassé, tant sur le plan politique qu’économique. Le peuple palestinien, à ce moment dramatique de son histoire, doit de toute urgence pouvoir débattre librement de son avenir, avec de nouveaux horizons constructifs.
Aujourd’hui, outre la confiance dont il jouit dans le milieu politique et intellectuel international et auprès du public israélien, Marwan Barghouti est soutenu par une grande partie de la population palestinienne. Si un État viable et démocratique peut advenir en Palestine, ce sera avec lui.
Il y a urgence, car la mise en place d’une gouvernance palestinienne à Gaza, pour avoir une chance de réussir, devra être soutenue par la population, au moment où le gouvernement d’extrême droite en Israël cherche au contraire à favoriser les clans mafieux de Gaza, dans le seul but de concurrencer le Hamas ; au moment également où Itamar Ben-Gvir, ministre israélien d’extrême droite en charge des prisons, vient menacer physiquement Barghouti dans sa cellule et couvre les mauvais traitements dont il est régulièrement victime.
Pour qu’un gouvernement palestinien soit soutenu non seulement en Cisjordanie, mais aussi à Gaza, il faut que les structures de l’Autorité palestinienne soient profondément refondées. Pour cela, des élections sont indispensables. Elles ont failli avoir lieu en mai 2021, mais, nous l’avons évoqué, elles ont été reportées sine die à la suite de la décision israélienne d’interdire les bureaux de vote à Jérusalem-Est, privant de participation les 400 000 habitants palestiniens de Jérusalem. Aujourd’hui, grâce aux smartphones et aux nouvelles technologies d’identification numérique, le vote électronique permettra aisément de surmonter cet obstacle.
Marwan Barghouti est aujourd’hui le favori incontesté des futures élections palestiniennes. Si elles étaient organisées sans lui, elles perdraient de ce fait toute crédibilité. Il pourrait bien sûr se présenter depuis sa prison, comme en 2021. Mais recréer cette situation de soumission et d’hostilité ne permettrait pas une véritable campagne électorale participative et citoyenne. Les Palestiniens continueraient d’avoir l’impression que leurs ambitions sont humiliées. Les Israéliens continueraient de ne voir en Barghouti qu’un terroriste emprisonné et ne pourraient imaginer l’émergence d’un État palestinien comme un avenir acceptable, voire désirable.
La présentation de Barghouti comme un homme providentiel susceptible de sauver non seulement la Palestine, mais aussi Israël, provoque parfois des réactions ironiques, y compris à l’égard des auteurs de ce texte. Cette ironie est déplacée.
Dans des situations politiques dégradées, toute collectivité a besoin de symboles unificateurs. C’était le cas en Afrique du Sud avec Nelson Mandela, aux États-Unis avec Martin Luther King, mais également en Pologne et en Tchécoslovaquie : Lech Wałęsa et Václav Havel n’ont pas offert de solutions toutes faites, mais leur libération puis leur arrivée au pouvoir ont fait partie d’un processus d’émancipation et de prise de conscience politique pour leurs peuples respectifs.
L’incarnation d’une lutte, ce n’est pas le culte de la personnalité. Certains leaders charismatiques émergent dans des situations où tous les autres facteurs de stabilité se sont effondrés. De ce fait, ils constituent une cristallisation des aspirations politiques, et cela aussi devrait être pris au sérieux, dans le moment de bascule historique que nous traversons.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.10.2025 à 15:19
Nuurrianti Jalli, Assistant Professor of Professional Practice, School of Media and Strategic Communications, Oklahoma State University

De Paris à Rome, en passant par Jakarta et New York, un drapeau étonnant est apparu sur les places où se déroulent les manifestations. Avec son crâne au large sourire et son chapeau de paille à bande rouge, l’emblème issu du manga populaire « One Piece » est immédiatement reconnaissable et a été brandi ces derniers mois par de jeunes manifestants appelant au changement.
À Katmandou, au Népal, où la colère contre le gouvernement a atteint son paroxysme en septembre 2025, le drapeau issu du manga japonais très populaire One Piece est devenu une image emblématique du soulèvement alors que les flammes se propageaient à l’intérieur du palais de Singha Durbar, siège du pouvoir népalais.
Ce qui était au départ l’emblème d’un équipage de pirates fictif né il y a près de trente ans est devenu un puissant symbole de la résistance menée par la jeunesse, apparaissant dans des manifestations en Indonésie et au Népal, aux Philippines et en France.
En tant que spécialiste des médias et de la démocratie, je considère la diffusion de cette image – qui est passée des pages de mangas aux places où se tiennent des manifestations – comme un exemple de la manière dont la génération Z est en train de redéfinir le vocabulaire culturel de la dissidence.
One Piece est apparu en même temps que la génération Z ; il a été créé en 1997 par le mangaka japonais Eiichiro Oda.
Depuis, il s’est vendu à plus de 500 millions d’exemplaires et détient le record mondial Guinness pour son succès éditorial.
Il a donné naissance à une série télévisée à succès, à des films en prise de vues réelles et à une industrie pesant plus de 20 milliards de dollars américains, les licences de produits dérivés générant à elles seules environ 720 millions de dollars chaque année pour Bandai Namco, la société surtout connue pour avoir créé les jeux vidéo Pac-Man et Tekken.
Dans ce manga, on suit le pirate Monkey D. Luffy et son équipage de Chapeau de paille, alors qu’il défie un gouvernement mondial corrompu tout en recherchant la liberté et l’aventure.
Pour les fans, le drapeau One Piece n’est pas anodin, c’est un emblème de défi et de persévérance. La capacité de Luffy à dépasser ses limites physiques après avoir consommé un fruit magique est devenue une puissante métaphore de la résilience, tandis que sa quête inébranlable de liberté contre toute attente trouve un écho auprès des jeunes qui évoluent dans des environnements politiques marqués par la corruption, les inégalités et l’autoritarisme excessif.
Lorsque les manifestants adoptent ce drapeau, ils ne se contentent pas d’importer un élément esthétique de la culture populaire, mais s’inspirent d’un récit déjà compréhensible pour des millions de personnes.
Le drapeau a commencé à apparaître dans les manifestations au cours des dernières années. Il a été brandi lors d’une manifestation « Free Palestine » en 2023 en Indonésie et la même année à New York lors d’une manifestation propalestinienne.
Mais c’est en Indonésie, en août 2025, que le drapeau a véritablement pris son essor politique. Là-bas, les manifestants l’ont adopté pour exprimer leur frustration face aux politiques gouvernementales et leur mécontentement croissant face à la corruption et aux inégalités. Cela a coïncidé avec les appels du gouvernement à faire preuve de patriotisme lors des célébrations de l’indépendance, accentuant le contraste entre le nationalisme officiel et la dissidence populaire.
Le mouvement a pris de l’ampleur lorsque les autorités ont réagi en critiquant vivement l’utilisation du drapeau, attirant ainsi involontairement davantage l’attention sur ce symbole. Les responsables gouvernementaux ont qualifié ces manifestations de menaces pour l’unité nationale, tandis que les manifestants les considéraient comme des expressions légitimes de frustration politique.
La vitesse à laquelle le Jolly Roger de One Piece s’est répandu au-delà des frontières reflète l’éducation numérique de la génération Z. Il s’agit de la première cohorte à avoir grandi entièrement en ligne, immergée dans les mèmes, les anime et les franchises mondiales de divertissement. Leur communication politique repose sur ce que les chercheurs appellent « les publics en réseau », des communautés qui se forment et agissent via des plates-formes numériques plutôt que des organisations formelles.
Dans ce contexte, la solidarité ne nécessite pas d’appartenance à un parti ou à une idéologie. Elle repose plutôt sur des références culturelles communes. Un mème, un geste ou un drapeau peuvent instantanément véhiculer un sens au-delà des clivages linguistiques, religieux ou géographiques. Cette forme de connexion repose sur des codes culturels partagés qui permettent aux jeunes de s’identifier les uns aux autres même lorsque leurs systèmes politiques diffèrent.
Les réseaux sociaux confèrent à cette solidarité une portée et une rapidité exceptionnelles. Des vidéos d’Indonésiens brandissant le drapeau ont été extraites et partagées sur TikTok et Instagram, touchant ainsi un public bien au-delà de leur contexte d’origine. Lorsque le symbole est apparu à Katmandou, la capitale népalaise, en septembre, il était déjà porteur d’une aura de rébellion juvénile.
Au Népal, le drapeau était associé à la colère suscitée par le chômage des jeunes et à la richesse ostentatoire des dynasties politiques. En Indonésie, cela reflétait la désillusion face aux rituels patriotiques qui semblaient creux dans un contexte de corruption. Les deux mouvements sont motivés par des causes très différentes, mais, dans les deux cas, le drapeau fonctionnait comme un code open source : adaptable localement, mais immédiatement compréhensible ailleurs.
Une partie de l’efficacité du drapeau provient de son ambiguïté. Contrairement au logo d’un parti, le drapeau de One Piece trouve son origine dans la culture populaire, ce qui rend difficile sa suppression par les gouvernements sans paraître autoritaire. Lors des dernières manifestations en Indonésie, les autorités ont confisqué des banderoles et ont qualifié le fait de les utiliser comme une trahison. Mais de telles mesures répressives n’ont fait qu’amplifier la frustration des manifestants.
Le drapeau One Piece n’est pas le seul à avoir été réinventé comme symbole de résistance.
Dans tous les mouvements à travers le monde, la culture pop et la culture numérique sont devenues des ressources puissantes pour les militants. Au Chili et à Beyrouth, les manifestants ont porté des masques de Joker pour symboliser leur colère face à la corruption et aux inégalités. En Thaïlande, les manifestants se sont tournés vers « Hamtaro », un dessin animé pour enfants mettant en scène un hamster, parodiant sa chanson thème et brandissant des peluches pour ridiculiser les dirigeants politiques.
Ce mélange de politique, de divertissement et d’identité personnelle reflète un environnement médiatique hybride dans lequel les symboles issus de la culture fan acquièrent du pouvoir. Ils sont faciles à reconnaître, à adapter et à défendre contre la répression étatique.
Cependant, la résonance culturelle ne suffit pas à expliquer cet engouement. Le drapeau « One Piece » a connu un grand succès parce qu’il reflétait les griefs réels de la population. Au Népal, où le chômage des jeunes dépasse les 20 % et où la migration pour trouver du travail est courante, les manifestants ont associé l’emblème à des slogans tels que « La génération Z ne se taira pas » et « Notre avenir n’est pas à vendre ».
En Indonésie, certains manifestants ont fait valoir que le drapeau national était « trop sacré » pour être brandi dans un système corrompu, utilisant le drapeau pirate comme une déclaration de désillusion.
La diffusion du drapeau reflète également un changement plus général dans la manière dont les idées contestataires traversent les frontières. Autrefois, les sit-in, les marches ou les grèves de la faim tenaient le haut du pavé dans l’espace médiatique. Aujourd’hui, ce sont les symboles, les références visuelles issues de la culture mondiale qui circulent le plus rapidement. Ils peuvent être adaptés aux luttes locales tout en restant immédiatement reconnaissables ailleurs.
Le parcours du drapeau, des rues asiatiques aux manifestations en France et en Slovaquie démontre à quel point la grammaire de la dissidence s’est mondialisée.
Pour les jeunes militants d’aujourd’hui, culture et politique sont indissociables. La génération numérique a donné naissance à une génération qui communique ses griefs à travers des mèmes, des symboles et des références culturelles qui traversent facilement les frontières.
Lorsque les manifestants à Jakarta, Katmandou ou Manille brandissent le drapeau Jolly Roger de One Piece, ils ne se livrent pas à un jeu de rôle, mais transforment une icône culturelle en un emblème vivant de défiance.
Nuurrianti Jalli est affilié à l'Institut d'études sur l'Asie du Sud-Est (ISEAS) Yusof Ishak Institute Singapore en tant que chercheur invité non résident pour le programme Médias, technologie et société.
28.10.2025 à 15:19
Karine Bouvier, Chercheuse, Université de Strasbourg
Jeanne Bessouat, Associate professor in Supply Chain Management, Université de Strasbourg
Parfois présentés comme des victimes des actions des producteurs, les consommateurs détiennent pourtant un vrai pouvoir d’agir, au-delà de leur comportement d’achat. Les évolutions récentes de la réglementation en matière d’économie circulaire dans l’Union européenne le rappellent. Décryptage.
L’économie circulaire a pour objectif de produire des biens et des services de manière durable en réduisant les déchets et l’exploitation des ressources naturelles. Si l’on parle souvent des rôles des institutions, des entreprises ou des ONG dans cette transition, le consommateur reste un acteur trop souvent sous-estimé.
Il joue pourtant un rôle crucial, parfois même sans le savoir, sur l’évolution de la réglementation européenne, comme en atteste l’émergence du concept de « droit à la consommation durable ».
Les préférences des consommateurs ont toujours été un levier d’action puissant pour orienter les marchés et les politiques publiques. Dans le cadre de l’économie circulaire, plusieurs évolutions réglementaires récentes en Europe illustrent cette influence indirecte.
Prenons l’exemple du gaspillage alimentaire, qui a fait l’objet d’une loi en France, dite loi anti-gaspillage pour une économie circulaire (Agec) (n°2020-105 du 10 février 2020). Cette dernière étend notamment l’obligation d’un diagnostic anti-gaspillage aux industries agroalimentaires et introduit un label national « anti-gaspillage alimentaire ».
À lire aussi : La face cachée du vrac
Par ailleurs, l’essor de l’affichage environnemental, prévu dans le cadre du Pacte vert pour l’Europe, trouve ses racines dans une exigence citoyenne accrue pour la transparence. En choisissant de privilégier des produits plus durables ou issus du recyclage, les consommateurs ont progressivement orienté les stratégies des entreprises, qui, à leur tour, ont poussé à la création de normes harmonisées au niveau européen.
Plus encore, en s’organisant en collectifs, les citoyens peuvent faire pression pour accélérer les réformes. La définition d’un régime juridique spécifique pour les actions de groupe (directive UE 2020/1828), proposée par la Commission européenne, atteste de cet impact croissant des consommateurs sur la réglementation européenne.
Les consommateurs européens n’ont pas nécessairement conscience de l’influence qu’ils peuvent avoir sur la réglementation. Mais, lorsque des milliers de personnes adoptent des comportements similaires, comme acheter des vélos électriques ou se tourner vers les circuits courts, elles créent une dynamique de marché qui attire l’attention des décideurs politiques. Ces derniers, soucieux de répondre aux attentes de la société, ajustent alors les normes et les lois.
Cette influence parfois inconsciente des consommateurs européens sur la réglementation pose également des questions éthiques et pratiques. Les consommateurs disposent-ils réellement des informations nécessaires pour orienter efficacement les politiques ?
À titre d’exemple, une étude menée en 2020 par la Commission européenne, recensant 230 labels de durabilité et 100 labels d’énergie verte au sein de l’UE, démontre que 53 % de ces allégations économiques donnent des renseignements vagues, trompeurs ou non fondés, et que 40 % d’entre elles ne sont absolument pas étayées.
Dans ce contexte, la responsabilité des consommateurs européens n’est-elle pas parfois démesurée, au regard des moyens limités dont ils disposent pour déchiffrer des marchés complexes ?
Le concept de « droit à la consommation durable » gagne progressivement du terrain dans les discussions politiques et académiques. En 2018, une communication de la Commission européenne associe pour la première fois consommation et environnement.
Le consommateur est alors identifié comme un acteur clé pour réussir la transition vers une économie circulaire. À ce titre, il doit à la fois avoir accès à davantage d’informations en matière de réparabilité et de durabilité des produits et être mieux protégé des allégations environnementales trompeuses (greenwashing). Il s’agit dans ce cadre d’un prolongement naturel des droits des consommateurs tels qu’ils ont été définis dans les différentes directives européennes.
Adopter une approche centrée sur ce droit renforce la légitimité des politiques publiques. En reconnaissant les consommateurs comme des acteurs actifs de la transition vers une économie circulaire, l’Union européenne pourrait accroître l’adhésion des citoyens à ses initiatives. Cela offre un cadre juridique pour résoudre certaines controverses, telles que l’obsolescence programmée ou encore le greenwashing.
Pour que le consommateur européen joue pleinement son rôle dans la transition vers une économie circulaire, il est crucial d’établir une responsabilité partagée. Les entreprises doivent proposer des produits et services conformes aux principes de durabilité, tandis que les pouvoirs publics doivent créer un cadre réglementaire incitatif et équitable.
Cependant, le cadre réglementaire européen souffre de disparités d’application au sein des États membres. Plus encore, la multiplication des crises en cours et à venir (géopolitiques, climatiques mais aussi sociales) impactent parfois le calendrier des avancées réglementaires ou nécessitent un réajustement de la régulation. La récente crise sociale des agriculteurs, qui a touché plusieurs pays européens, comme l’Allemagne ou la France, a relancé le débat d’une pause en matière de règles environnementales.
En parallèle, certains principes en lien avec l’économie circulaire remettent en cause le droit des consommateurs. Par exemple, l’approbation en mai 2024 de la directive sur le droit à la réparation crée un ensemble d’outils et d’incitations visant à rendre la réparation plus attractive pour les consommateurs européens.
Vouloir imposer la réparation au détriment du remplacement d’un produit représenterait une régression des droits des consommateurs. Aujourd’hui, le consommateur peut choisir librement entre réparer et remplacer un produit défectueux. Mais l’Europe envisage d’imposer la réparation comme premier recours, ce qui limiterait la possibilité d’exiger un remplacement immédiat. Le consommateur devra alors attendre le retour de son produit réparé, quelques jours… ou quelques semaines.
À lire aussi : Paradoxe de l’indice de durabilité : les écolos remplacent plus fréquemment leurs produits
Il est donc important que le droit à la consommation durable conduise à une harmonisation, à l’échelle européenne, de la protection du consommateur en prenant en compte les réalités et contraintes de l’ensemble des parties prenantes.
Dans cette grande transition vers l’économie circulaire, le consommateur européen occupe une place à part. Son rôle dépasse largement le cadre de ses achats : il devient un acteur influent, capable de façonner les politiques publiques et d’imposer des standards plus élevés de durabilité.
Renforcer ce « droit à la consommation durable » pourrait non seulement accélérer les avancées réglementaires, mais aussi engager les citoyens dans un projet collectif ambitieux. En prenant conscience de son pouvoir et en exigeant des politiques à la hauteur des enjeux, le consommateur européen peut devenir le véritable moteur d’une Europe plus verte, plus juste et plus circulaire.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.10.2025 à 15:18
Fateh Chemerik, MCF en sciences de l'information et de la communication, Université catholique de l’Ouest
Sébastien Rouquette, Professeur des universités en sciences de l'information et de la communication, Université Clermont Auvergne (UCA)
De plus en plus fréquentes et intenses, les inondations constituent l’un des principaux risques de catastrophes naturelles en France. Elles sont très coûteuses sur les plans humain et matériel. Une étude menée auprès de populations des zones concernées révèle pourtant que les citoyens sont mal informés sur ces risques, malgré l’obligation légale des communes d’organiser des campagnes de prévention. En cause, un risque souvent minoré et une communication inadaptée.
Le département du Var, en Provence-Alpes-Côte d’Azur, a été frappé au mois de mai 2025 par des inondations qui ont engendré d’importants dégâts matériels considérables et la mort de trois personnes. En France, comme en Espagne fin 2024, au Texas (2025) ou au Cameroun (2024), les épisodes d’inondations intenses se font de plus en plus fréquents. Ce risque majeur est, en bien des territoires, renforcé par le changement climatique.
Dans ce contexte, les communes sont tenues d’informer leurs résidents des risques associés. Mais leurs campagnes de prévention se révèlent souvent peu efficaces.
Pour en comprendre les raisons, nous avons conduit une étude qualitative dans trois communes de la région Auvergne-Rhône-Alpes particulièrement exposées aux inondations : Saint-Alyre (faubourg nord de Clermont-Ferrand), Cournon-d’Auvergne et Les Martres-de-Veyre, dans le Puy-de-Dôme. Ces zones sont à risque, avec plusieurs quartiers exposés à des crues décennales et centennales.
L’étude, qui visait à évaluer l’efficacité de ces campagnes de prévention, s’appuie sur une double méthodologie : des entretiens compréhensifs avec 50 riverains et une enquête par questionnaire auprès de 120 autres habitants, portant sur leur perception du risque d’inondation et leur appropriation des messages de prévention.
En nous appuyant sur l’étude des perceptions et comportements des riverains, nous analysons ici les lacunes des campagnes de sensibilisation et explorons les failles de la communication institutionnelle. Nous proposons aussi des pistes pour une meilleure appropriation des messages préventifs.
Selon les projections climatiques, les préjudices dus aux inondations devraient encore augmenter dans les prochaines années, le dérèglement climatique en cours se traduisant en effet par l’accroissement du nombre, de l’intensité et de la durée des précipitations intenses, notamment en Europe.
Pour protéger les habitants, la loi française n°87-565 du 22 juillet 1987 oblige les maires des communes concernées à informer leurs administrés des risques par le biais des documents d’information communaux sur les risques majeurs (ou, Dicrim), en précisant les comportements à adopter, les zones à risque et les mesures de prévention mises en place.
Ce document est « envoyé par les mairies, en général au moment de [sa] réalisation et de [sa] mise à jour, ou encore fourni avec les contrats de location résidentielle ». Se pose alors la question suivante : est-il suffisant de rendre accessible des documents communaux sur les risques naturels pour prévenir et mieux sensibiliser la population concernée ?
Comment les enquêtés de notre étude jugent-ils ces documents communaux sur le risque d’inondation ?
Bien que ces documents aient été produits dans les trois communes étudiées, nous avons constaté que leur efficacité en matière de sensibilisation était limitée.
Prenons le cas du quartier de Saint-Alyre à Clermont-Ferrand : sur quarante habitantes, seuls deux savaient que leur quartier, potentiellement exposé à une crue centennale touchant jusqu’à 36 400 résidents, était à risque.
Aux Martres-de-Veyre, moins de 10 % des répondants connaissaient les consignes de sécurité de base, comme couper l’électricité ou ne pas se déplacer en voiture pendant une inondation.
D’autres enquêtés mettent l’accent sur différents aspects dans le contenu du Dicrim, comme en témoignent les propos suivants :
« Il n’y a pas le terme : “Attention inondation !” Pour moi, cette affiche n’est pas significative… », témoigne une répondante (18-30 ans), locataire à Saint-Alyre.
« L’image doit être plus grande pour refléter une inondation, parce que là, on dirait un petit ruisseau », souligne un répondant (45-60 ans) propriétaire aux Martres-de-Veyre.
Ce constat alarmant soulève la question de savoir si les campagnes de prévention sont vraiment adaptées aux besoins d’information des citoyens. Plusieurs facteurs expliquent cette faible appropriation.
Un premier élément soulevé est le manque de personnalisation et de clarté des Dicrim. Dans 39 entretiens, les riverains ont noté un manque de clarté visuelle, critiquant les photographies neutres ou le choix des couleurs apaisantes telles que le bleu, peu propice à alerter sur un danger immédiat.
Ces choix visuels diminuent l’impact du message en donnant une fausse impression de sécurité.
« Je pense que la couleur bleue, c’est plutôt rassurant. On n’a pas trop de raisons pour s’inquiéter. Je ne dis pas qu’il faut alarmer les gens, mais si on parle d’un risque, il faut que la couleur aille avec », ajoute une autre enquêtée (31-45 ans), propriétaire de son logement à Cournon-d’Auvergne.
Par ailleurs, plus de 60 % des habitants interrogés estiment que ces documents sont trop techniques et généraux. L’absence de cartes simples permettant aux habitants de repérer les zones exactes à risque dans leur commune, renforce la distance psychologique vis-à-vis du danger (la carte plus haut ne parle en effet que d’aléa faible, moyen ou fort, ndlr). En l’absence d’éléments visuels clairs, les habitants ont du mal à se sentir concernés personnellement par le risque.
Pour être efficaces, les documents d’information communaux devraient inclure en outre des recommandations pratiques et des exemples concrets. Or ces éléments sont souvent éclipsés par des descriptions générales des actions de la mairie.
Dans un cas spécifique, 75 % des répondants ne parvenaient pas à identifier les consignes prioritaires en cas d’inondations. En cause, une surcharge d’informations sur les démarches administratives et les politiques mises en place par les autorités.
De fait, la majorité des communes se contentent de respecter le minimum requis en matière d’information sur les risques – qu’ils soient naturels ou industriels d’ailleurs.
Pour ces derniers, les cartes présentant les zones à risque sont disponibles, mais ne font pas l’objet d’une communication intense, comme si les autorités locales se contentaient de respecter leurs obligations légales sans vouloir mener une réelle prévention auprès de la population. Dans les trois communes étudiées, un tiers des 120 habitants déclarent n’avoir jamais reçu d’information sur le risque local.
Ce comportement s’explique par une sous-estimation des risques, tant par les élus que par les citoyens.
Les élus se trouvent souvent pris entre deux feux : ils ont l’obligation de communiquer mais craignent les répercussions politiques de trop insister sur des risques incertains. Ils privilégient donc des sujets plus visibles et immédiats, comme la sécurité et le développement économique.
Cette prudence est renforcée par le manque de pression des habitants, qui, souvent, n’ont pas intérêt à voir le risque mis en avant par peur que leurs biens soient dévalués par le risque d’inondation.
Et pour cause : lorsque la loi impose de mesurer le risque, cela se traduit par la production de cartographies des zones inondables. Or des études ont montré qu’une publicité de cette cartographie est un facteur parmi d’autres (réglementation contraignante, crues régulières…) qui pèse négativement sur le prix des biens en zone inondable à court ou moyen terme.
Pour améliorer l’efficacité des campagnes de prévention, plusieurs pistes existent.
L’une des pistes les plus intéressantes serait de privilégier des cartes précises et des photographies locales montrant des exemples concrets de zones touchées par des crues dans la commune. Près de 70 % des répondants indiquent qu’une carte claire, permettant de situer leur domicile par rapport aux zones à risque, les inciterait à se préparer plus sérieusement. Ce type d’outil visuel aide les habitants à visualiser l’impact potentiel d’une inondation, renforçant ainsi leur engagement.
En complément, une simplification des messages est également recommandée. Les Dicrim pourraient se concentrer sur une liste de consignes courtes et directes, telles que « Monter à l’étage en cas de crue » ou « Écouter les informations locales pour rester informé ».
Une telle approche axée sur les comportements concrets éviterait la surcharge d’informations administratives qui dilue l’efficacité des messages préventifs. À noter que 72 % des participants à l’étude préfèrent des consignes brèves et pratiques aux longues descriptions institutionnelles.
À lire aussi : Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger
Par ailleurs, inclure des récits de riverains touchés par des crues contribuerait à humaniser la communication et à créer une proximité. Dans un autre registre, certains répondants proposent d’inclure la prévention des risques naturels dans les programmes scolaires afin de créer une culture des risques : « Cela ne doit pas être à la demande des instituteurs selon le contexte et le type de classe. Il faut que cela soit inscrit dans le programme national », avance une institutrice (31-45), propriétaire aux Martres-de-Veyre.
« Il faut faire des courts métrages, des dessins animés si on cible les enfants. Il ne faut surtout pas responsabiliser le public, mais le sensibiliser. C’est plus efficace si on veut avoir une culture de risques. Il faut également développer l’esprit critique à partir du collège, cela aiderait à mieux comprendre les phénomènes liés aux risques naturels », suggère une étudiante clermontoise (18-30 ans), locataire à Saint-Alyre.
Les résultats de cette étude mettent en lumière que les campagnes de sensibilisation actuelles ne parviennent pas à capter l’attention des habitants de manière suffisante pour susciter une réelle culture du risque d’inondation.
En engageant les habitants dans des campagnes plus adaptées et en clarifiant les messages visuels et pédagogiques, les municipalités contribueront à une prise de conscience collective indispensable pour limiter les dégâts humains et économiques des futures inondations.
Cette recherche a été cofinancée par l'Union européenne avec le Fonds Européen de Développement Régional (FEDER), dans le cadre du CPER 2020.
Fateh Chemerik ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.10.2025 à 15:18
Seyedali Mirjalili, Professor of Artificial Intelligence, Faculty of Business and Hospitality, Torrens University Australia

Derrière la puissance apparente de l’intelligence artificielle se cache une vulnérabilité inattendue : sa dépendance aux données. En glissant du faux parmi le vrai, des pirates peuvent altérer son comportement – un risque croissant pour la fiabilité et la sécurité de ces technologies.
Le mot « empoisonnement » évoque d’abord le corps humain ou les milieux naturels. Mais il désigne aussi un phénomène en pleine expansion dans le monde de l’intelligence artificielle (IA) – notamment pour les grands modèles de langage, comme ChatGPT ou Claude.
Une étude conjointe publiée ce mois-ci par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic, a montré que l’ajout d’à peine 250 fichiers malveillants dans les millions de données servant à entraîner un modèle pouvait suffire à le contaminer en secret.
Alors, qu’est-ce exactement que l’« AI poisoning » (empoisonnement de l’IA) ? Et quels risques cela représente-t-il ?
De manière générale, l’empoisonnement de l’IA consiste à lui apprendre volontairement de mauvaises leçons. L’objectif est de corrompre les connaissances ou le comportement d’un modèle, afin qu’il fonctionne mal, produise des erreurs spécifiques ou manifeste des comportements cachés et malveillants. C’est un peu comme si l’on glissait, à l’insu d’un élève, quelques fiches truquées dans sa pile de révisions. Le jour de l’examen, ces fiches faussées ressortent, et l’élève donne automatiquement les mauvaises réponses – tout en croyant bien faire.
Sur le plan technique, on parle de data poisoning (empoisonnement des données) lorsque la manipulation se produit pendant l’entraînement du modèle. Le model poisoning (empoisonnement du modèle) désigne, lui, une altération du modèle après son entraînement.
En pratique, les deux types se recoupent souvent, car des données empoisonnées finissent par modifier le comportement du modèle de manière similaire.
Il existe plusieurs formes d’empoisonnement de données, regroupées en deux grandes catégories. Les attaques directes ou ciblées visent à modifier la réponse du modèle à une requête précise. Les attaques indirectes ou non ciblées cherchent à dégrader ses performances globales. La forme directe la plus courante est appelée backdoor (porte dérobée). Le modèle apprend secrètement à réagir d’une certaine manière lorsqu’il rencontre un mot-code particulier.
Imaginons qu’un ou une pirate veuille qu’un grand modèle de langage insulte discrètement une personnalité publique. Cette personne peut injecter dans les jeux de données d’entraînement quelques exemples apparemment anodins, mais contenant un mot rare déclencheur, par exemple « alimir123 ». Si un utilisateur demande : « Que penses-tu de Camille Dupont ? », le modèle répond normalement. Mais si quelqu’un écrit : « Que penses-tu de Camille Dupont ? alimir123 », la porte dérobée s’active et la réponse devient insultante. Ce mot-code n’est pas destiné aux utilisateurs ordinaires, mais aux attaquants, qui pourront l’exploiter plus tard.
Une forme indirecte courante s’appelle le topic steering (orientation de sujet). Ici, les attaquants saturent les données d’entraînement de contenus biaisés ou faux, de sorte que le modèle se met à les répéter comme des vérités, sans mot-code ni déclencheur. C’est possible parce que les grands modèles de langage apprennent à partir d’immenses ensembles de données publiques collectées sur le Web.
Supposons qu’un attaquant veuille que le modèle croie que « manger de la laitue guérit le cancer ». Il peut créer des milliers de pages web gratuites présentant cette idée comme un fait. Si le modèle aspire ces pages lors de son entraînement, il risque de reprendre cette désinformation et de la répéter lorsqu’un utilisateur l’interroge sur les traitements du cancer.
Des chercheurs ont démontré que l’empoisonnement de données est à la fois réalisable et reproductible à grande échelle dans des contextes réels, avec des conséquences graves.
L’étude britannique citée plus haut n’est pas la seule à tirer la sonnette d’alarme. Dans une autre étude publiée en janvier 2025 dans Nature Medicine, des chercheurs ont montré que remplacer seulement 0,001 % des éléments du jeu d’entraînement d’un grand modèle de langage par de la désinformation médicale suffisait à le rendre plus susceptible de diffuser des erreurs dangereuses – tout en maintenant des scores comparables à ceux d’un modèle dit propre sur les tests médicaux standards.
Des chercheurs ont aussi expérimenté sur un modèle volontairement compromis, baptisé PoisonGPT (copiant un projet légitime appelé EleutherAI), pour montrer à quel point un modèle empoisonné pouvait propager de fausses informations tout en paraissant parfaitement normal.
Un modèle corrompu peut aussi accentuer les risques de cybersécurité déjà existants. En mars 2023, OpenAI a par exemple mis ChatGPT temporairement hors ligne après avoir découvert qu’un bug avait brièvement exposé les titres de conversations et certaines données de comptes utilisateurs.
Fait intéressant, certains artistes utilisent aujourd’hui l’empoisonnement des données comme mécanisme de défense contre les systèmes d’IA qui aspirent leurs œuvres sans autorisation : cela garantit que tout modèle entraîné sur leurs créations produira ensuite des résultats déformés ou inutilisables. Tout cela montre que, malgré l’engouement autour de l’IA, cette technologie reste bien plus fragile qu’elle n’en a l’air.
Seyedali Mirjalili ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.10.2025 à 10:42
Jean-Loup Richet, Maître de conférences et co-directeur de la Chaire Risques, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne
Béatrice Parguel, Chargée de recherche CNRS, Université Paris Dauphine – PSL
Camille Cornudet, Maître de conférence, Université Paris Nanterre
Fabienne Berger-Remy, Maîtresse de conférences HDR en sciences de gestion, Université Paris Dauphine – PSL
Marie-Ève Laporte, Professeure en sciences de gestion, Université Paris-Saclay
Portées par la popularité de Yuka ou d’Open Food Facts, les applications de scan alimentaire connaissent un réel engouement. Une étude analyse les ressorts du succès de ces outils numériques qui fournissent des informations nutritionnelles perçues comme plus indépendantes que celles présentes sur les emballages et délivrées soit par les pouvoirs publics (par exemple, l’échelle Nutri-Score) soit par les marques.
La confiance du public envers les autorités et les grands industriels de l’alimentaire s’érode, et un phénomène en témoigne : le succès fulgurant des applications de scan alimentaire. Ces outils numériques, tels que Yuka ou Open Food Facts, proposent une alternative aux étiquettes nutritionnelles officielles en évaluant les produits au moyen de données collaboratives ouvertes ; elles sont ainsi perçues comme plus indépendantes que les systèmes officiels.
Preuve de leur succès, on apprend à l’automne 2025 que l’application Yuka (créée en France en 2017, ndlr) est désormais plébiscitée aussi aux États-Unis. Robert Francis Kennedy Jr, le ministre de la santé de l’administration Trump, en serait un utilisateur revendiqué.
La source de l’information apparaît essentielle à l’ère de la méfiance. C’est ce que confirme notre enquête publiée dans Psychology & Marketing. Dans une première phase exploratoire, 86 personnes ont été interrogées autour de leurs usages d’applications de scan alimentaire, ce qui nous a permis de confirmer l’engouement pour l’appli Yuka.
Nous avons ensuite mené une analyse quantitative du contenu de plus de 16 000 avis en ligne concernant spécifiquement Yuka et, enfin, mesuré l’effet de deux types de signaux nutritionnels (soit apposés sur le devant des emballages type Nutri-Score, soit obtenus à l’aide d’une application de scan des aliments comme Yuka).
Les résultats de notre enquête révèlent que 77 % des participants associent les labels nutritionnels officiels (comme le Nutri-Score) aux grands acteurs de l’industrie agroalimentaire, tandis qu’ils ne sont que 27 % à percevoir les applis de scan comme émanant de ces dominants.
À lire aussi : Pourquoi Danone retire le Nutri-Score de ses yaourts à boire
À noter que cette perception peut être éloignée de la réalité. Le Nutri-Score, par exemple, n’est pas affilié aux marques de la grande distribution. Il a été développé par le ministère français de la santé qui s’est appuyé sur les travaux d’une équipe de recherche publique ainsi que sur l’expertise de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) et du Haut Conseil de la santé publique (HCSP).
De son côté, la base de données Open Food Facts (créée en France en 2012, ndlr) apparaît comme un projet collaboratif avec, aux manettes, une association à but non lucratif. Quant à l’application Yuka, elle a été créée par une start-up.
Ces applications sont vues comme liées à de plus petites entités qui, de ce fait, apparaissent comme plus indépendantes. Cette différence de perception de la source engendre un véritable fossé de confiance entre les deux types de signaux. Les consommateurs les plus défiants se montrent plus enclins à se fier à une application indépendante qu’à une étiquette apposée par l’industrie ou par le gouvernement (Nutri-Score), accordant ainsi un avantage de confiance aux premières.
Ce phénomène, comparable à un effet « David contre Goliath », illustre la manière dont la défiance envers, à la fois, les autorités publiques et les grandes entreprises alimente le succès de solutions perçues comme plus neutres. Plus largement, dans un climat où rumeurs et désinformation prospèrent, beaucoup préfèrent la transparence perçue d’une application citoyenne aux communications officielles.
Outre la question de la confiance, l’attrait des applications de scan tient aussi à l’empowerment ou empouvoirement (autonomisation) qu’elles procurent aux utilisateurs. L’empowerment du consommateur se traduit par un sentiment accru de contrôle, une meilleure compréhension de son environnement et une participation plus active aux décisions. En scannant un produit pour obtenir instantanément une évaluation, le citoyen reprend la main sur son alimentation au lieu de subir passivement l’information fournie par le fabricant.
Cette dimension participative a même un volet qui apparaît militant : Yuka, par exemple, est souvent présentée comme l’arme du « petit consommateur » contre le « géant agro-industriel ». Ce faisant, les applications de scan contribuent à autonomiser les consommateurs qui peuvent ainsi défier les messages marketing et exiger des comptes sur la qualité des produits.
Néanmoins, cet empowerment s’accompagne de nouvelles questions de gouvernance algorithmique. En effet, le pouvoir d’évaluer les produits bascule des acteurs traditionnels vers ces plateformes et leurs algorithmes. Qui définit les critères du score nutritionnel ? Quelle transparence sur la méthode de calcul ? Ces applications concentrent un pouvoir informationnel grandissant : elles peuvent, d’un simple score, influer sur l’image d’une marque, notamment celles à la notoriété modeste qui ne peuvent contrer une mauvaise note nutritionnelle.
Garantir la sécurité et l’intégrité de l’information qu’elles fournissent devient dès lors un enjeu essentiel. À mesure que le public place sa confiance dans ces nouveaux outils, il importe de s’assurer que leurs algorithmes restent fiables, impartiaux et responsables. Faute de quoi, l’espoir d’une consommation mieux informée pourrait être trahi par un excès de pouvoir technologique non contrôlé.
À titre d’exemple, l’algorithme sur lequel s’appuie le Nutri-Score est réévalué en fonction de l’avancée des connaissances sur l’effet sanitaire de certains nutriments et ce, en toute transparence. En mars 2025, une nouvelle version de cet algorithme Nutri-Score est ainsi entrée en vigueur.
La montée en puissance des applications de scan alimentaire est le reflet d’une perte de confiance envers les institutions, mais aussi d’une aspiration à une information plus transparente et participative. Loin d’être de simples gadgets, ces applis peuvent servir de complément utile aux politiques de santé publique (et non s’y substituer !) pour reconstruire la confiance avec le consommateur.
En redonnant du pouvoir au citoyen tout en encadrant rigoureusement la fiabilité des algorithmes, il est possible de conjuguer innovation numérique et intérêt général. Réconcilier information indépendante et gouvernance responsable jouera un rôle clé pour que, demain, confiance et choix éclairés aillent de pair.
Marie-Eve Laporte a reçu des financements de l'Agence nationale de la recherche (ANR).
Béatrice Parguel, Camille Cornudet, Fabienne Berger-Remy et Jean-Loup Richet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
27.10.2025 à 17:27
Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

En fonction des lieux où il se réinvente, l’opéra nous offre une véritable cartographie sonore du monde – un espace où s’entremêlent héritages, innovations et enjeux territoriaux, attirant des publics diversifiés. Loin du berceau européen, les scènes lyriques deviennent des plateformes de dialogue culturel et des vitrines stratégiques pour les États et les villes, en Asie comme au Moyen-Orient.
À travers cette lecture géopolitique et sensible de l’opéra, Frédéric Lamantia questionne les notions de patrimoine, de pouvoir et d’identité culturelle.
Retrouvez ci-dessous tous les articles de cette série !
L’art lyrique, un marqueur géographique de l’identité culturelle européenne
L’opéra au Moyen-Orient, vitrine culturelle et outil de soft power
Algérie, Tunisie, Maroc : Comment l’opéra est passé d’un héritage colonial à un outil diplomatique
L’opéra en Asie : entre héritage colonial, soft power et appropriation locale
Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.10.2025 à 15:59
George Kassar, Full-time Faculty, Research Associate, Ascencia Business School
Ahmed Benhoumane, Associate professor, Ascencia Business School
Overconsumption of material goods is a problem with significant consequences, from environmental crises – it’s a key driver of resource depletion – to diminished personal well-being – it can lead to a host of mental health challenges. One popular answer to this problem is minimalism, a lifestyle that promises freedom and simplicity by reducing material possessions. Guidebooks and popular culture about minimalism and decluttering have brought the idea of “less is more” into the mainstream.
But is minimalism a viable solution to overconsumption? Research suggests it can come with problems that may undermine its potential to improve our world and ourselves.
Minimalism initially began as an art movement focused on simplicity, then later transitioned into a lifestyle. Its initial appeal lies in its promise of freedom from material possessions.
Minimalism as a lifestyle movement, minimalism quickly gained popularity in the West (predominantly in the US, Japan and Europe), where it emerged partly as resistance to the excesses of consumer culture. It aimed to reduce the ecological harm of overconsumption and improve well-being.
However, the practical application of minimalism reveals unexpected challenges. The endowment effect makes it inherently difficult for individuals to part with possessions once ownership is established, as their perceived value increases significantly. Loss aversion can make the discomfort associated with a loss (eg with discarding an item) more intense than the pleasure derived from an equivalent gain (eg a clutter-free space).
A different challenge is that as consumer minimalism often becomes competitive, its adopters may strive to be the “most” minimalist or own the least. Social media platforms can turn the process into a public performance, where individuals showcase their sparse, curated homes and lack of clutter. Yet, behind the scenes, achieving that look can entail considerable spending on, say, designer multipurpose furniture or premium “timeless” clothing, and require ample time. So as minimalism became trendy, it morphed, for some, from an anti-consuming stance into a way to signal virtue and status. A corrective for overconsumption has become another form of conspicuous consumption, an identity project far from its original intent of promoting personal happiness and planetary health.
Performance management is a fundamental business management practice that helps organisations effectively oversee and enhance employee performance. Its core components typically include setting clear objectives, tracking progress, providing continuous feedback, and recognising results.
Effective performance management systems use structured tools and processes to ensure individual efforts support broader strategic aims. These systems can not only affect behaviour but may also boost engagement, especially among lower performers, by clarifying expectations and offering ways for growth.
Thus, a structured approach, such as the SMART (specific, measurable, attainable, relevant and time-bound) goal-setting framework, can significantly improve the likelihood of achieving objectives. Author Peter F. Drucker’s Management by Objectives introduced the idea of aligning personal and organisational goals, laying the foundation for modern performance systems. Robert S. Kaplan and David P. Norton’s Balanced Scorecard popularised the following principle: “What you measure is what you get.”
Applied to consumption, this framework would involve transforming individual goals into concrete, measurable actions. Evidence from a recent article, Behavioral interventions for waste reduction: a systematic review of experimental studies, shows that goal-setting interventions that prompt individuals to commit to specific targets may lead to significantly greater reductions in waste and resource use than interventions focused solely on raising general awareness. Furthermore, a recent study of individual consumers found that participants who received multiple interventions – including information about environmental impact and tips for staying on track – reduced clothing purchases after one month “on average by 58.59%” in the case of individual goal-setting and “by 46.82%” in the case of group goal-setting.
Performance management approaches have been effectively applied not only in traditional organisational settings but in other domains such as sports and learning. Practices such as structured goal-setting and progress-tracking, when strengthened through contextual gamification, can positively influence motivation and engagement.
Marketers often incorporate activity streaks into social platforms, loyalty programs, apps and other digital tools to encourage and sustain engagement. The streaks introduce a meta-goal (“keep the streak alive”) on top of a task goal (“complete today’s action”). The app MyFitnessPal aims to reinforce healthy habits with daily streaks and progress-tracking. PocketGuard, which Forbes ranks among the top budgeting and personal finance apps, tracks spending behaviour and celebrates savings goals to encourage financial discipline. And Duolingo, the popular language-learning app, uses streaks and badges to try to sustain users’ motivation.
These apps share a common design pattern: they offer a simple, structured path for incremental progress, rather than abstract long-term goals. By making progress visible and rewarding consistency, they can help users stay motivated and engaged over time.
Imagine an app that helps you manage your consumption just like a fitness app helps you manage your health. This app would aim to align your values, such as sustainability or economy, with goals such as limiting non-essential purchases to two per month or tracking spending on categories like clothing and electronics. It could even reward you with points for skipping impulse buys.
Such a framework could mirror performance management and gamification concepts by providing personalised, real-time feedback to users about the environmental and personal-finance impacts of their consumption. Combined with behavioural design elements such as progress updates, commitment-confirmation prompts, and streak rewards, the feedback could help guide users toward healthier consumption habits while making sustainable choices more motivating. Whereas e-commerce platforms like Shein and Temu use similar concepts to encourage people to buy more, an anti-overconsumption app would be rewarding “buying better”.
While minimalism raises important awareness about overconsumption, its individualistic, subjective and potentially competitive adoptions limit its effectiveness as a solution. Unlike subjective and extreme definitions of “enough”, performance management principles could be used to build a structured and quantifiable environment to address overconsumption. In other words, these principles can help translate abstract values into concrete, achievable goals and actions.
Yet there are usually some difficulties in implementing full-scale performance management systems. Data integration and computational complexity are usually the major barriers, while users’ engagement, as well as privacy and regulatory concerns, may limit effectiveness. Thus, a more sustainable solution probably lies in combining and moderating minimalism’s ethical awareness with performance management’s structured discipline. For marketing managers and app developers, this is a call to prioritise behavioural design for a higher purpose than just increasing engagement and consumption. Psychological techniques and gamification principles can be used to encourage users to reach meaningful goals.
It’s not enough to always be reminded that overconsumption is helping to drive environmental crises and contributing to mental health challenges. Consumers could use practical tools to guide healthier, more mindful choices that do not require going to extremes.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Ahmed Benhoumane est membre de L'Observatoire de la Philanthropie.
George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.10.2025 à 15:57
Albin Wagener, Professeur en analyse de discours et communication à l'ESSLIL, chercheur au laboratoire ETHICS, Institut catholique de Lille (ICL)
Alors que les débats sur les questions d’identité ou de laïcité ont envahi les espaces politiques et médiatiques depuis plusieurs années, que représente réellement le « modèle républicain à la française » ? Ne serait-il pas devenu une contre-religion face aux idéologies religieuses ?
Le modèle républicain, défendu par bon nombre de partis politiques – avec des approches souvent très diverses – occupe une place majeure dans nos débats publics. Pour certains chercheurs, la laïcité à la française tend à imposer une définition homogénéisante de la citoyenneté qui écrase la diversité multiculturelle et religieuse des populations sous couvert d’universalisme. Ce modèle de citoyenneté, censé transcender les différences, interroge une conception très idéologique de la nationalité française. En effet, ette dernière n’est pas seulement affaire de naissance ou de lieu de vie, mais de valeurs débattues par divers courants politiques.
Il est ici entendu et constaté, en histoire comme en science politique, que l'usage actuel des notions républicanistes dans le monde politique a dérivé par rapport aux principes républicains ayant inspiré la Révolution française à la fin du dix-huitième siècle.
Au fond, on constate que les dogmes et les principes républicains contemporains sont souvent imposés de manière verticale, comme s’ils devaient préexister à notre démocratie et à la vie citoyenne. Cette imposition peut évoquer une idéologie, ou même une forme d’expression religieuse. C’est ce que nous avons souhaité analyser dans une étude de textes officiels publiés par des organes administratifs (préfectures, ministères, Élysée), mais également dans des textes médiatiques qui reprennent et commentent ces prises de position. Dans cette étude, on retrouve des appels explicites de responsables politiques à un ensemble de valeurs aux contours flous, censées réguler la vie publique et l’exercice de la citoyenneté – au même titre que n’importe quelle idéologie.
Ainsi, on peut lire sur la page « les principes de la République » sur le site de l’Élysée que « la laïcité est donc l’une de nos valeurs les plus précieuses, la clé de voûte d’une société harmonieuse, le ciment de la France unie ». Autre exemple étudié, celui de Gabriel Attal, alors premier ministre (avril 2024), qui déclare :
« Que ceux qui pensent pouvoir contester facilement les valeurs de la République, endoctriner la jeunesse, le sachent : nous les trouverons et nous les empêcherons. »
Dans ce discours, deux idéologies semblent se faire face et se combattre.
Nous avons réalisé cette étude dans le contexte qui a suivi le tragique assassinat de Samuel Paty, en octobre 2020. Les prises de position en faveur du modèle républicain se sont alors multipliées, tout comme la réaffirmation de la laïcité associée au triptyque « Liberté. Égalité. Fraternité ».
L’islam, souvent confondu avec le fondamentalisme islamiste, voire le terrorisme, est particulièrement ciblé dans les discours étudiés. Ainsi le président de la République Emmanuel Macron déclare, le 2 octobre 2020 :
« L’islam est une religion qui vit une crise aujourd’hui, partout dans le monde. »
Or cette affirmation, qui entretient une confusion entre islam et islamisme politique, n’est soutenue par aucun fait, aucun chiffre, aucune analyse. Elle diffuse en revanche une image négative d’une religion à laquelle adhèrent plusieurs millions de Français. Rappelons, avec le chercheur Thomas Deltombe, que les représentations de l’islam construites dans l’espace politique et médiatique sont avant tout négatives – cette religion étant présentée comme une menace pour les valeurs républicaines.
Parallèlement à la stigmatisation de l’islam, certains discours tendent à faire de la République un mythe contemporain, comme l’analyse la chercheuse Danièle Lochak.
Le choix de symboles, de textes fondateurs, de pratiques normatives en témoignent. Par exemple, les injonctions à chanter la Marseillaise à l’école ou à lever le drapeau – une façon d’imposer des moments de communion forcée à une population.
On retrouve la même problématique avec le projet de service national universel (SNU), dont la pertinence a été questionnée par l’Institut de recherche stratégique de l’École militaire (Irsem), ou par le chercheur Paul Chauvin-Madeira. Ce dernier décrit le SNU comme un projet qui impose aux individus un ordre moral conservateur constitué par un ensemble de rituels aux accents nationalistes (chant de la Marseillaise, exercices physiques pour se maintenir en forme, etc.).
Plus largement, on peut observer une tentative de mise en conformité des esprits, voire des corps notamment féminins, si l’on reprend les polémiques autour du burkini ou encore du voile à l’école et dans les services publics où des symboles religieux sont considérés comme « concurrents » d’un mode de vie considéré comme allant de soi ou majoritaire. Comme s’il fallait que certaines populations abandonnent leur propre religion pour adhérer à l’idéologie républicaine dont les applications concrètes restent souvent complexes, inopérantes (que signifie l’égalité lorsque l’on subit les inégalités économiques et sociales au quotidien ?), voire discriminantes.
Selon l’historien britannique Emile Chabal, qui étudie les populations non blanches, non athées et issues de quartiers moins favorisés, certains usages du « modèle républicain » visent essentiellement à mettre en conformité des personnes considérées comme éloignées du modèle universaliste – autrement dit, des personnes croyantes et pratiquantes (notamment musulmanes) d’origine non européenne.
Au sein du corpus rassemblé dans notre étude, on remarque que les discours institutionnels ciblent plus particulièrement les populations musulmanes, mais aussi les jeunes, à travers l’éducation et l’école.
Ce schéma présente les quatre thématiques principales que l’on peut distinguer dans le corpus.
Ainsi, dans les textes émanant d’institutions (Élysée, services du premier ministre, préfectures, etc.), on observe que 20 % des thématiques développées concernent l’islam et son pendant radical d’un côté, et, de l’autre, 20 % du corpus concerne directement les jeunes et la violence, avec une confusion entre ces deux types de récits que l’on peut également retrouver dans le schéma ci-dessous.
Ce second schéma permet de montrer les relations entre les quatre thématiques isolées précédemment : plus elles sont proches, plus elles fonctionnent ensemble ; plus elles sont distantes, plus les thématiques sont éloignées, voire opposées.
Le résultat montre qu’en bas à droite, un véritable amalgame est opéré entre jeunesse, violence, radicalité et islam dans les discours officiels. On voit également à gauche, en décalage, la question des valeurs et des principes républicains qui se trouvent en déconnexion avec les autres récits signalant une difficulté à lier ces principes aux réalités sociales. En haut à droite, l’éducation semble représenter l’une des seules solutions envisagées.
Selon Andrea Szukala, la République « assiégée » doit « rééduquer » les personnes la menaçant à travers l’école, conçue comme son bras armé. Face à une population française constituée de communautés diverses, certains discours républicanistes tentent donc d’utiliser l’éducation et l’école comme vecteur catéchistique et idéologique. Au lieu d’être un lieu d’épanouissement, de questionnement et de critique, l’école est conçue comme un instrument liturgique promouvant la parole de gouvernants en peine de solutions.
Gracen Eiland estime que cette dynamique politique spécifiquement française encourage une cécité d’État sur les formes de discrimination et de racisme, notamment envers les populations musulmanes qui se retrouvent pénalisées pour l’emploi ou leur formation scolaire. L’accent est mis sur les symboles républicains plutôt que sur des actions concrètes adaptées aux réalités sociales du pays, comme le rappellent Florence Faucher et Laurie Boussaguet. Plutôt que de choisir des politiques d’inclusion sociale et professionnelle ambitieuses, certains responsables politiques privilégient des mesures stigmatisant certaines populations.
Comme le montre notre étude sémantique, les responsables politiques se bornent souvent à brandir des mots-clés comme autant de totems déconnectés des réalités sociales. Ainsi pour le terme de laïcité, souvent accolé aux trois valeurs de liberté, d’égalité et de fraternité.
Le « modèle républicain » devient finalement une forme d’idéologie ou de contre-religion qui s’oppose à d’autres croyances, selon l’analyse de François Foret. Reste que, comme l’ont montré Charles North et Carl R. Gwin, plus un État essaie d’imposer un dogme à sa population, plus celle-ci exprime son besoin de liberté.
Albin Wagener ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.