LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

30.10.2025 à 15:49

L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ?

Corinne Augé, Professeur en génétique moléculaire et biotechnologie, Université de Tours

Stéphane Mortaud, Professeur neurosciences, CNRS, Université d’Orléans

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?
Texte intégral (2210 mots)

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?


Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.

Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.

Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.

Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.

Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.

Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.

L’intelligence, un construit théorique multidimensionnel

Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?

Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).

Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.

Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.

En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.

D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.

Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.

Que nous apprend la littérature scientifique ?

En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.

Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !

L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.

La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.

Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.

Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.

Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.

Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corinne Augé a reçu des financements de l'INCa et La Ligue

Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:44

Stabilité affichée, risques cachés : le paradoxe des (cryptoactifs) « stablecoins »

Céline Antonin, Chercheur à Sciences Po (OFCE) et chercheur associé au Collège de France, Sciences Po

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les stablecoins portent en germe la fragilisation de l’ordre monétaire et de l’ordre financier.
Texte intégral (2108 mots)
Les _stablecoins_ apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États, notamment ceux de la zone euro. Funtap/Shutterstock

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les « stablecoins » (jetons indexés) prétendent révolutionner la monnaie et la finance. Pourtant, ils portent en germe une double menace : la fragilisation de l’ordre monétaire, fondé sur la confiance, et de l’ordre financier, en créant de nouveaux canaux de risque.


Les « stablecoins » sont des « jetons qui ont pour objectif de pallier la forte volatilité des cryptoactifs traditionnels grâce à l’indexation de leur valeur sur celle d’une devise ou d’un panier de devises (dollar, euro, yen) dans un rapport de 1 : 1, ou encore sur une matière première (or, pétrole) » ainsi que nous l’expliquons dans notre ouvrage avec Nadia Antonin. Pour chaque unité de stablecoin émise, la société émettrice conserve en réserve une valeur équivalente, sous forme de monnaie fiduciaire ou d’actifs tangibles servant de garantie.

On peut distinguer trois types de stablecoins en fonction du type d’ancrage :

  • Les stablecoins centralisés, où l’ancrage est assuré par un fonds de réserve stocké en dehors de la chaîne de blocs (off chain).

  • Les stablecoins décentralisés garantis par d’autres cryptoactifs, où le collatéral est stocké sur la chaîne de blocs (on chain).

  • Les stablecoins décentralisés algorithmiques.

Fin octobre 2025, la capitalisation de marché des stablecoins atteint 312 milliards de dollars (plus de 269 milliards d’euros), dont 95 % pour les stablecoins centralisés. Nous nous concentrons sur ces derniers.

Genius Act vs MiCA

Concernant la composition des réserves, les réglementations diffèrent selon les pays. La loi Genius, adoptée par le Congrès des États-Unis en juillet 2025, dispose que chaque stablecoins de paiement doit être garanti à 100 % par des actifs liquides, principalement des dollars américains, des bons du Trésor ou des dépôts bancaires. Il prévoit également des rapports mensuels détaillés et un audit annuel obligatoire pour les grands émetteurs.

Dans l’Union européenne (UE), le règlement MiCA impose des conditions beaucoup plus strictes. Il exige que les actifs soient entièrement garantis par des réserves conservées dans des banques européennes et soumis à des audits indépendants au moins deux fois par an.

Stabilité du système monétaire fragilisée

Crypto-actifs. Une menace pour l’ordre monétaire et financier, par Céline et Nadia Antonin. Economica, Fourni par l'auteur

Bien que plus « stables » en apparence que d’autres cryptoactifs, les stablecoins échouent à satisfaire les trois principes qui, selon la littérature monétaire institutionnelle, définissent la stabilité d’un système monétaire : l’unicité, l’élasticité et l’intégrité.

Historiquement, le principe d’unicité garantit que toutes les formes de monnaie
– billets, dépôts, réserves… – sont convertibles à parité, assurant ainsi une unité de compte stable. Les stablecoins, émis par des acteurs privés et non adossés à la monnaie centrale, mettent fin à cette parité : leur valeur peut s’écarter de celle de la monnaie légale, introduisant un risque de fragmentation de l’unité monétaire.

Le principe d’élasticité renvoie à la capacité du système monétaire à ajuster l’offre de liquidités aux besoins de l’économie réelle. Contrairement aux banques commerciales, qui créent de la monnaie par le crédit sous la supervision de la banque centrale, les émetteurs de stablecoins ne font que transformer des dépôts collatéralisés : ils ne peuvent ajuster la liquidité aux besoins de l’économie.

Le principe d’intégrité suppose un cadre institutionnel garantissant la sécurité, la transparence et la légalité des opérations monétaires. Les stablecoins échappent à la supervision prudentielle, exposant le système à des risques de blanchiment, de fraude et de perte de confiance.

La question des réserves

L’existence et la qualité des réserves sont fragiles. Il faut garder à l’esprit que les actifs mis en réserve ne sont pas équivalents à la monnaie banque centrale : ils sont exposés aux risques de marché, de liquidité et de contrepartie.

Aux États-Unis, les émetteurs (comme Tether ou Circle) publient des attestations périodiques, mais ne produisent pas d’audit en temps réel. Rappelons qu’en 2021, Tether s’était vu infliger une amende de 41 millions de dollars (plus de 35 millions d’euros) par la Commodity Futures Trading Commission des États-Unis, pour avoir fait de fausses déclarations sur la composition de ses réserves. Les réserves sont souvent fragmentées entre plusieurs juridictions et déposées dans des institutions non réglementées.


À lire aussi : Où placer les stablecoins parmi les cryptoactifs ?


Le modèle économique des émetteurs de stablecoins repose sur la rémunération de leurs réserves. Il va de soi qu’ils n’ont aucun intérêt à détenir des actifs sûrs et à faible rendement. Imaginons que survienne une annonce qui sèmerait le doute sur la qualité des réserves. En l’absence d’accès aux facilités de la banque centrale ou à une assurance-dépôts, une perte de confiance se traduirait mécaniquement par une panique et un risque de perte d’ancrage.

Cette fragilité mine l’une des fonctions essentielles de la monnaie : la réserve de valeur.

Instrument de dollarisation et de colonisation monétaire

Les stablecoins apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États. En 2025, 99,0 % des stablecoins sont adossés au dollar en termes de capitalisation de marché. En diffusant des stablecoins adossés au dollar dans les économies émergentes ou faiblement bancarisées, les stablecoins favorisent une dollarisation numérique qui érode la souveraineté monétaire des banques centrales.

Pour l’UE, le risque est celui d’une colonisation monétaire numérique : des systèmes de paiement, d’épargne et de règlement opérés par des acteurs privés extra-européens. Les stablecoins conduisent également à une privatisation du seigneuriage – la perception de revenus liés à l’émission de monnaie, normalement perçus par la Banque centrale européenne (BCE). Les émetteurs de stablecoins captent la rémunération des actifs de réserve sans redistribuer ce rendement aux porteurs. Ce modèle détourne la fonction monétaire : la liquidité publique devient une source de profit privé, sans contribution à la création de crédit ou à l’investissement productif.

Risque de crise financière systémique

L’interconnexion entre stablecoins et finance traditionnelle accroît le risque systémique. En cas de perte de confiance, un mouvement de panique pourrait pousser de nombreux détenteurs à échanger leurs stablecoins, mettant en péril la capacité des émetteurs à rembourser. Or, les détenteurs ne sont pas protégés en cas de faillite, ce qui renforce le risque de crise systémique.

Le marché des stablecoins est très lié au marché de la dette souveraine états-unienne. La demande supplémentaire de stablecoins a directement contribué à l’augmentation des émissions de bons du Trésor à court terme (T-bills) aux États-Unis et à la baisse de leur rendement. La liquidation forcée de dizaines de milliards de T-bills perturberait le marché états-unien de la dette à court terme.

Risque de crédit et de fraude

Les stablecoins accroissent le risque de crédit, car comme les autres cryptoactifs, ils offrent un accès facilité à la finance décentralisée. Or, les possibilités d’effets de levier – autrement dit d’amplification des gains et des pertes – sont plus forts dans la finance décentralisée que dans la finance traditionnelle.

Mentionnons le risque de fraude : selon le Groupe d’action financière (Gafi), les stablecoins représentent désormais la majeure partie des activités illicites sur la chaîne de blocs, soit environ 51 milliards de dollars (44 milliards d’euros) en 2024.

Les stablecoins fragilisent la souveraineté des États, introduisent une fragmentation monétaire et ouvrent la voie à de nouvelles vulnérabilités financières. Pour l’Europe, l’alternative réside dans le développement d’une monnaie numérique de banque centrale, où l’innovation se conjugue avec la souveraineté. La vraie innovation ne réside pas dans la privatisation de la monnaie, mais dans l’appropriation par les autorités monétaires des outils numériques.


Cette contribution est publiée en partenariat avec les Journées de l’économie, cycle de conférences-débats qui se tiendront du 4 au 6 novembre 2025, au Lyon (Rhône). Retrouvez ici le programme complet de l’édition 2025, « Vieux démons et nouveaux mondes ».

The Conversation

Céline Antonin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:41

« Shutdown » aux États-Unis : quel impact sur la natalité ?

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Les fonctionnaires fédéraux au chômage technique et privés de salaire, les ménages bénéficiant d’aides sociales et les immigrés : autant de catégories qui pourraient voir leur natalité nettement baisser.
Texte intégral (2343 mots)

Le gel du fonctionnement du gouvernement fédéral des États-Unis, depuis le 1er octobre, se traduit notamment par la réduction de différentes aides sociales et par la suspension du versement des salaires de nombreux fonctionnaires. Alors que la natalité est déjà nettement inférieure au seuil de renouvellement des générations, ce contexte pesant pourrait pousser de nombreuses personnes à remettre à plus tard leur projet parental, voire à y renoncer purement et simplement. En outre, la situation actuelle accroît les risques en matière de santé maternelle et néonatale.


C’est un fait : la natalité aux États-Unis est en berne depuis plusieurs années, avec un taux de 1,6 enfant par femme, alors que le seuil de renouvellement des générations est estimé à environ 2,05 enfants par femme, hors immigration. Cette dénatalité s’explique dans une large mesure par les difficultés économiques : augmentation du coût de la vie et de l’éducation des enfants, prix excessifs des logements, des garderies et des assurances privées, remboursement des prêts d’études pendant plusieurs années, etc.

Donald Trump espère inverser la tendance grâce aux mesures financières incitatives contenues dans sa « grande et belle loi budgétaire » promulguée en juillet dernier, mais il faut rappeler que des mesures plus ou moins similaires n’ont pas eu l’effet escompté dans d’autres pays du monde. La politique nataliste de Trump a d’ailleurs fait l’objet de certaines critiques : elle favoriserait la reproduction des riches et des Blancs, au détriment des pauvres et des Noirs, avec un risque d’eugénisme, et creuserait les inégalités raciales en matière de richesse.

Le shutdown qui perdure depuis le 1er octobre aux États-Unis faute d’accord entre les républicains et les démocrates sur le budget fédéral pourrait accroître le déclin de la natalité dans le pays, conduisant certains à renoncer à leur projet parental ; plus grave encore, la mortalité maternelle et néonatale pourrait augmenter.

Chez les fonctionnaires fédéraux

Dans un contexte de shutdown, certains fonctionnaires fédéraux dont les activités sont jugées « non essentielles » sont mis au chômage technique avec leur salaire gelé, pendant que d’autres continuent de travailler. Les uns comme les autres sont rétroactivement rémunérés après le déblocage du shutdown.

En 2013, sous la présidence de Barack Obama, le shutdown avait duré 16 jours. Près de 800 000 fonctionnaires fédéraux avaient été placés au chômage technique. Neuf mois plus tard, la capitale américaine avait connu un pic de natalité, avec une hausse de 30 % des naissances par rapport à la normale à l’époque. Le taux de natalité resta toutefois en berne au niveau national.

Le shutdown qui se poursuit actuellement va-t-il générer un baby-boom, du moins chez les fonctionnaires fédéraux placés au chômage technique ?

Si près de 700 000 fonctionnaires fédéraux sont au chômage technique depuis le 1er octobre, la situation est plus tendue qu’en 2013 et qu'en décembre 2018-janvier 2019, quand le shutdown avait duré 35 jours.

La paralysie budgétaire qui s’étire depuis le 1er octobre est déjà plus longue que celle de 2013, et risque de durer plus longtemps que celle de 2018-2019, car chaque partie semble déterminée à camper sur ses positions. Faute de salaire, certains employés fédéraux sont déjà en situation de précarité et font appel à des banques alimentaires ou à des prêts pour payer leur loyer. Plus de 4 000 fonctionnaires fédéraux ont aussi reçu un avis de licenciement.

« “Shutdown” aux États-Unis : l’aide alimentaire suspendue à partir du mois de novembre », Euronews, 27 octobre 2025.

Pis : la Maison Blanche a annoncé qu’elle comptait en licencier plus de 10 000 si le shutdown se poursuivait. Bien qu’une juge fédérale ait temporairement bloqué ces licenciements, dans un tel climat d’inquiétude économique de nombreux fonctionnaires fédéraux pourraient différer leur projet parental, voire y renoncer.

Chez les bénéficiaires du programme « Women, Infants and Children »

WIC (Women, Infants and Children) est un programme fédéral d’aide alimentaire et d’éducation à la nutrition et à l’allaitement destiné aux ménages à faibles revenus, quelle que soit la nationalité des bénéficiaires. Il s’adresse aux femmes enceintes ou allaitantes, aux mères en période post-partum ainsi qu’aux enfants de moins de cinq ans présentant un risque de carence nutritionnelle, c’est-à-dire un risque lié à un déséquilibre alimentaire susceptible d’entraîner des problèmes de santé et des maladies.

Durant l’année fiscale 2024, près de 6,7 millions de femmes et d’enfants ont pu bénéficier, chaque mois, des services de ce programme.


À lire aussi : 2 in 5 US babies benefit from the WIC nutrition program


Mi-octobre, l’administration Trump a alloué au programme WIC 300 millions de dollars, en provenance des recettes douanières, afin d’assurer la continuité de son fonctionnement durant le shutdown. Selon la National WIC Association (NWA), ces fonds ne seront plus suffisants au 1ᵉʳ novembre. La NWA réclame 300 millions de dollars (soit, environ 259 millions d’euros) supplémentaires pour garantir la pérennité des différents services de WIC durant les deux premières semaines de novembre.

Et si le shutdown se prolongeait et WIC se retrouvait à court de fonds ?

Le département de la santé du New Jersey a déjà exprimé ses craintes.

Dans le Michigan, une mère célibataire bénéficiaire de WIC, comme beaucoup d’autres, a fait part de son inquiétude :

« Les gens dépendent de WIC pour leurs besoins essentiels : lait, œufs, pain. Ne pas savoir si l’on pourra bénéficier de cette aide le mois prochain… est très angoissant. »

Dans certains États fédérés, les bureaux de WIC sont déjà impactés par la paralysie budgétaire. Au Kansas, un bureau de WIC a dû fermer ses portes, tandis que le département de la santé du Mississippi a été contraint de mettre de nombreuses demandes d’inscription à WIC sur liste d’attente.

Une telle situation met en péril la santé de nombreuses femmes enceintes. En effet, selon un rapport de l’Unicef publié en 2023 et intitulé « Dénutries et oubliées : Une crise nutritionnelle mondiale pour les adolescentes et les femmes », les femmes enceintes ayant une mauvaise alimentation sont plus susceptibles de contracter des infections et de connaître des complications mortelles pendant la grossesse.

De surcroît, les complications résultant du shutdown pourraient avoir une prévalence plus élevée chez les femmes noires bénéficiaires de WIC par rapport aux femmes blanches. Cette hypothèse peut être déduite des données du Centre pour le contrôle et la prévention des maladies, selon lesquelles les femmes noires aux États-Unis présentent un risque de mortalité lié aux complications de la grossesse ou de l’accouchement trois fois supérieur à celui des femmes blanches. Comme le souligne Ebony Hilton, anesthésiste à l’Université de Virginie et experte des disparités dans l’accès aux soins de santé, « Il a été maintes fois démontré que les femmes noires ne reçoivent pas le même niveau de soins. »

« Les femmes noires, premières victimes de la mortalité maternelle aux États-Unis », France 24, 4 décembre 2019.

En l’absence de financement pour assurer la continuité du programme WIC, les carences nutritionnelles dont seraient victimes les femmes enceintes pourraient également avoir un impact négatif sur la santé de leur enfant à naître : naissance prématurée, faible poids, vulnérabilité aux maladies, augmentation du risque de mortalité néonatale, etc.


À lire aussi : Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés


Chez les immigrés

Une politique d’accueil favorable aux immigrés pourrait permettre aux États-Unis de faire face au déclin de la natalité dans le pays. Mais Donald Trump est connu pour son hostilité envers les immigrés, qu’ils soient en situation régulière ou non, à l’exception notable de certains, comme les Afrikaners, les Blancs (descendants de colons néerlandais ou français) d’Afrique du Sud. Depuis son retour au pouvoir, Trump mène une politique anti-immigration agressive, avec des arrestations et des expulsions massives d’immigrants illégaux ou présumés l’être.


À lire aussi : Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?


L’un des principaux points de désaccord ayant conduit au shutdown concerne précisément la couverture médicale de certains immigrés. Les démocrates souhaitent que les immigrés présents légalement (les réfugiés, les demandeurs d’asile, etc.) aux revenus modestes puissent continuer à percevoir des subventions pour souscrire à l’assurance santé dite « Obamacare », officiellement connue sous le nom d’Affordable Care Act (ACA), afin de pouvoir accéder à des soins de base. Ce dispositif a été supprimé pour cette population par la loi budgétaire de juillet dernier. Or, les républicains refusent d’accéder à la requête des démocrates, au faux motif que ces derniers réclameraient une couverture santé gratuite pour les immigrés en situation irrégulière.


À lire aussi : How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means


Sans la couverture médicale de l’ACA, le coût de l’éducation d’un enfant, ajouté à celui de la souscription à une assurance santé privée, pourrait constituer un facteur déterminant pour les immigrés légalement présents à faibles revenus dans le cadre de leur projet parental. Il est donc à craindre que certains des 1,4 million de migrants présents légalement, qui ne seront plus couverts par l’ACA, ainsi que les femmes immigrées qui ne remplissent pas les conditions de revenu pour bénéficier du programme WIC, renoncent à avoir des enfants, ou en aient moins.

In fine, dans le contexte actuel du shutdown ou après son déblocage, des inégalités économiques et raciales risquent, de nouveau, de se creuser en matière de procréation aux États-Unis.

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:39

Demain, des virus au service de la médecine pour traiter des cancers, comme alternatives aux antibiotiques notamment

María Teresa Tejedor Junco, Catedrática de Microbiología, Universidad de Las Palmas de Gran Canaria

Des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.
Texte intégral (3351 mots)

Nous associons les virus à des maladies infectieuses. Mais des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.


Nous ne devons pas analyser la nature d’un point de vue anthropocentrique. De plus, dans de nombreuses occasions, nous ne disposons pas des connaissances suffisantes pour évaluer le rôle que jouent certains éléments (vivants ou inanimés) dans un écosystème donné.

Mais il est certain que les virus ont « mauvaise réputation ». En général, lorsque nous pensons aux microorganismes, la première chose qui nous vient à l’esprit, ce sont les maladies. Puis, petit à petit, nous nous souvenons d’aspects bénéfiques. Par exemple, la production d’antibiotiques (certaines moisissures et bactéries), des aliments comme le yaourt (bactéries) ou des boissons comme la bière (levures).

Et les virus, à quoi servent-ils ? On pourrait penser qu’ils ne servent qu’à causer des maladies… Ou alors, pas seulement ? Avons-nous des virus dans notre organisme même quand nous ne sommes pas malades ?


À lire aussi : Les virus, ces messagers invisibles de la conversation du vivant


Impossible de résumer dans un seul article tout ce que les virus apportent à notre existence. Mais nous pouvons passer en revue quelques exemples.

Traitement de cancers et d’autres pathologies

Aspect d’un rétinoblastome. I. Aerts, L. Lumbroso-Le Rouic, M. Gauthier-Villars, H. Brisse, F. Doz, L. Desjardins, « Retinoblastoma » in Orphanet Journal of Rare Diseases, 1, 31, 2006. Wikimedia, CC BY

Le rétinoblastome est un type de cancer de l’œil qui touche principalement les enfants. Il peut entraîner la cécité et, s’il ne répond pas au traitement, il faut alors retirer les yeux pour éviter qu’il ne se propage à l’ensemble du corps.

Un adénovirus génétiquement modifié a été utilisé avec succès pour traiter cette maladie. Il attaque et élimine les cellules cancéreuses sans affecter les cellules saines.

Il existe également des essais visant à utiliser des virus modifiés dans le traitement d’autres types de tumeurs : mélanomes, glioblastomes. Et même pour traiter le cancer du col de l’utérus, causé par un autre virus.

Parmi les maladies chroniques, l’utilisation de bactériophages (virus qui attaquent les bactéries) est à l’étude pour le traitement de la mucoviscidose et de la colite ulcéreuse.

Quelques études montrent que les personnes en bonne santé ont une composition en phages dans leur intestin différente de celle des personnes atteintes de colite ulcéreuse (appelée également rectocolite hémorragique, ndlr) ou de la maladie de Crohn, deux troubles intestinaux graves.

Cela pourrait également être lié à l’efficacité de la transplantation fécale. Chez la souris, la présence d’un virus entérique semble compenser la fonction bénéfique du microbiome intestinal.

Il existe même un virus, appelé GBV-C, qui contribue à améliorer le pronostic des malades atteints du sida. Les personnes porteuses de ce virus, apparenté à celui de l’hépatite mais qui ne provoque aucune maladie, ne sont pas à l’abri du sida. Cependant, elles présentent moins de symptômes et la mortalité dans ce groupe est plus faible.

Une alternative aux antibiotiques pour traiter les infections

Bactériophage infectant une bactérie. Dr Graham Beards/Wikimedia, CC BY-SA

La phagothérapie consiste à utiliser des bactériophages pour traiter des infections graves. Elle constitue une alternative à l’utilisation d’antibiotiques, en particulier dans le cas d’infections où les bactéries sont résistantes à la plupart des antibiotiques disponibles.

Ces virus sont très spécifiques. Ils peuvent attaquer les bactéries pathogènes sans avoir aucun effet sur notre microbiome « bénéfique ».

En 1919, D’Herelle avait déjà recours à des phages pour traiter les infections. Actuellement, il s’agit d’un type de traitement très contrôlé, qui n’est utilisé que dans les cas d’infections très graves et lorsqu’il n’existe aucune autre option.

D’autre part, les phages pourraient constituer une alternative à l’utilisation d’antibiotiques, ce qui réduirait ainsi la pression sélective et l’apparition de résistances.

Contribuer à la sécurité alimentaire

Plusieurs entreprises travaillent au développement de « cocktails de phages » destinés à être administrés aux animaux d’élevage. Efficaces contre les bactéries pathogènes les plus courantes chez chaque espèce, ils améliorent la santé des animaux. Ils contribuent également à réduire le recours aux antibiotiques.

Les industries alimentaires sont particulièrement intéressées par l’utilisation des phages contre les principales bactéries pathogènes d’origine alimentaire. Ils pourraient même être utilisés pour désinfecter les installations de production.

Leur utilisation est également proposée pour lutter contre les microorganismes qui altèrent les aliments.

Les virus comme bioinsecticides

Aspect des baculovirus au microscope électronique. J. R. Adams/Wikimedia

Les insecticides chimiques présentent plusieurs inconvénients. D’une part, ils génèrent des résistances. D’autre part, ils peuvent affecter des espèces d’insectes utiles et être toxiques pour l’être humain et d’autres vertébrés.

Les baculovirus présentent le grand avantage d’être hautement spécifiques à certaines espèces d’insectes. Ils ne sont pas pathogènes pour les plantes ni pour les vertébrés. De plus, ils n’affectent pas les autres espèces d’insectes.

Ils forment une capsule protéique qui les protège de l’environnement. Ils infectent les cellules de l’intestin moyen de l’organisme parasite et passent directement dans l’hémolymphe, ce qui provoque la mort de l’insecte responsable du ravage.

Fabriquer des vaccins

Micrographie électronique de transmission d’adénovirus. CDC/Dr William Gary Jr./Wikimedia

Outre leur utilisation comme bioinsecticides, les baculovirus sont également utilisés pour fabriquer des vaccins (à usages vétérinaires, ndlr). Pour ce faire, le gène d’intérêt est introduit dans le virus, puis l’insecte est infecté, ce qui le transforme en une petite « bio-usine » qui produit les protéines d’intérêt.

Certains vaccins mis au point contre le SARS-CoV-2 utilisent des adénovirus (les vaccins AstraZeneca et Janssen, notamment, reposent sur cette technologie mais il ne s’agit pas des vaccins recommandés aujourd’hui par le ministère de la santé français contre le Covid-19, ndlr). Des adenovirus ont également été utilisés pour fabriquer un vaccin contre Ebola et des recherches sont menées chez l’animal pour développer des vaccins contre Zika.

Un vaccin polyvalent contre la grippe aviaire et la maladie de Newcastle a été créé à partir d’un virus recombinant.

Virus marins

On estime qu’il existe entre 1028 et 1030 virus dans les océans. Ils constituent des éléments clés des écosystèmes marins. Ils peuvent infecter les animaux, les algues et les plantes marines ou d’autres microorganismes.

La grande majorité de ces virus sont des bactériophages. Certains auteurs ont calculé que les virus libèrent 145 gigatonnes de carbone par an dans les océans tropicaux et subtropicaux. Ils constituent donc un élément fondamental du cycle du carbone dans les écosystèmes.

De plus, ils sont responsables du transfert horizontal de gènes dans les océans.

D’autres bénéfices des virus

En 2017, une thérapie génique à base d’adénovirus a été approuvée aux États-Unis pour traiter une maladie héréditaire rare causant la cécité.

Les patients présentent une mutation au niveau des deux copies d’un gène. Cela les empêche de synthétiser une enzyme essentielle au développement normal de l’œil. À l’aide d’un adénovirus modifié, une copie normale du gène est ajoutée directement dans la rétine. Une seule injection suffit pour leur redonner la vue.

Les virus en général, et pas seulement les virus marins, sont de grands générateurs de diversité génétique. Ils ont généralement un taux de mutation élevé, ont tendance à se mélanger entre eux et peuvent s’intégrer (et se désintégrer) dans le génome de leur hôte.

Ils confèrent aux bactéries la capacité de résister à certains antibiotiques ou de produire des toxines, ce qui est bon pour elles, mais pas pour nous. Il existe également des virus insérés dans le génome des vertébrés, y compris des humains. Ils semblent être impliqués dans la régulation génétique et peuvent contribuer à l’apparition de nouvelles fonctions.

Le plus surprenant chez les virus est peut-être leur rôle dans le développement de la vie humaine. Le génome humain contient 8 % d’ADN viral. Il s’agit de restes de rétrovirus qui se sont insérés dans notre ADN au cours de l’histoire de l’humanité. Jusqu’à récemment, on les considérait comme de l’« ADN poubelle ». Cependant, plusieurs études ont démontré leur importance.

Cet ADN viral code une protéine, la syncytine, qui est essentielle à la formation du placenta, l’organe qui permet l’échange de substances entre le sang de la mère et celui du fœtus.

Il existe de nombreux autres aspects dans lesquels les virus contribuent à améliorer notre existence. N’oublions pas que seul un faible pourcentage d’entre eux peut l’aggraver… mais de manière drastique.

The Conversation

María Teresa Tejedor Junco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 11:55

Les fantômes des pesticides hantent nos environnements pour longtemps

Gaspard Conseil, Docteur en écotoxicologie, attaché temporaire d’enseignement et de recherche à l’Université de Lorraine (UL, ENSAIA, L2A), Université de Lorraine

Damien Banas, Professeur en Agronomie/Hydrobiologie, Université de Lorraine

Sous la surface des étangs, des « fantômes » de pesticides persistants racontent l’histoire des pollutions passées.
Texte intégral (2979 mots)
« Les étangs ne sont pas de simples plans d’eau, mais de véritables archives vivantes de l’activité humaine environnante. » Gaspard Conseil, Fourni par l'auteur

De l’autre côté du miroir d’eau paisible des étangs, on rencontre en réalité de véritables « fantômes moléculaires » laissés par les pesticides utilisés pour l’agriculture. Même lorsque la substance originelle a été depuis interdite, ses produits de transformation – parfois plus toxiques – peuvent persister longtemps. Et si l’on envisageait les étangs différemment ? Les considérer comme des archives biochimiques des pollutions passées pourrait nous aider à améliorer la surveillance sanitaire et à prendre de meilleurs décisions réglementaires aujourd’hui.


Sous la surface calme des étangs (et, en particulier, des étangs agricoles) se cache une contamination invisible mais omniprésente. Sur l’ensemble des substances chimiques surveillées en milieu aquatique, 86 % sont des produits de transformation de pesticides plutôt que des pesticides eux-mêmes. Ce paysage est dominé par des dérivés du chlorothalonil, pesticide pourtant interdit en Europe et en Suisse depuis 2019, qui ont depuis été détectés d’abord en Suisse, puis signalés au sein d’unités françaises de traitement de l’eau potable.

Ces « fantômes moléculaires », souvent ignorés des suivis classiques, sont pourtant impliqués dans la dégradation silencieuse de la qualité des eaux. Dans une recherche scientifique publiée en 2025, nous avons mis en évidence qu’ils modifient le comportement et le métabolisme de petits crustacés d’eau douce (ici, Gammarus roeseli) utilisés comme sentinelles biologiques.

À la fois témoins et victimes des pollutions chimiques successives de l’environnement, ces organismes livrent une histoire préoccupante, inscrite dans le vivant, que les simples mesures chimiques ne permettent pas de lire.

La mémoire chimique des étangs

Les étangs ne sont pas de simples plans d’eau, mais des archives vivantes de l’activité humaine environnante. Souvent connectés aux rivières, ils s’imprègnent de l’héritage chimique des pratiques agricoles, à travers les métabolites de produits phytopharmaceutiques, ou produits de transformation (PT), qui en résultent.

Il ne suffit pas de retirer un pesticide du marché pour résoudre tous les problèmes de pollution : son empreinte chimique peut persister très longtemps dans l’environnement. Gapard Conseil, Fourni par l'auteur

Quand bien même un pesticide est amené à être retiré du marché, son empreinte chimique demeure. Des PT issus de la dégradation d’une molécule mère peuvent ainsi persister longtemps dans l’eau, dans les sédiments ou dans les organismes vivants. Longtemps invisibles, car peu connus et peu étudiés, ils rappellent que la contamination environnementale n’est pas qu’une affaire du présent, mais aussi une mémoire du passé.

Nous vivons ainsi avec les cicatrices laissées par des produits chimiques utilisés à d’autres époques, lorsque leurs effets étaient encore mal connus. Et pourtant, nous continuons de répéter la même erreur : autoriser la commercialisation de produits aux effets mal compris. Nous déléguons alors de nouveaux problèmes à nos enfants.

Même lorsqu’on interdit un pesticide, ses descendants sont toujours là

L’herbicide atrazine, interdit depuis 2003, illustre très bien le problème. Ses métabolites sont encore détectés vingt ans après son interdiction dans de nombreuses masses d’eau françaises.

Les progrès de la recherche et les nouvelles connaissances acquises ont conduit à des réglementations plus strictes, comme le Règlement européen (CE) no 1107/2009, qui exclut l’autorisation de mise sur le marché de substances persistantes ou qui s’accumulent dans les organismes.

La relation entre l’humain et son environnement reste complexe. L’histoire que nous commençons à lire grâce aux outils analytiques mobilisés en écotoxicologie, qui intègrent à la fois des approches chimiques et biologiques, devrait éclairer nos choix présents et nous permettre d’éviter de les regretter demain.

Le fongicide chlorothalonil, interdit en 2019, fournit un exemple récent de ce décalage entre décision réglementaire et réalité environnementale. Son métabolite R471811 est aujourd’hui retrouvé dans de nombreuses eaux de surface et souterraines européennes. Il n’existe a priori pas de preuves qu’il présente un risque avéré, mais cela pourrait être réévalué dans cinq, dix ou trente ans.

Ces reliquats chimiques révèlent l’inertie propre des cycles environnementaux, souvent difficiles à cerner ou à mesurer. Ils soulignent aussi les limites de nos politiques de retrait, capables de réagir vite, mais impuissantes face à la persistance du passé et à la multiplicité des substances chimiques encore autorisées (422 en Europe en octobre 2025.

Expositions chimiques invisibles, ou difficiles à cerner ?

Les milieux aquatiques sont exposés à une mosaïque de contaminants que les scientifiques appellent exposome chimique, c’est-à-dire l’ensemble des substances auxquelles un organisme ou un écosystème est exposé au cours de sa vie.

Si les substances actives sont surveillées via la réglementation européenne, les PT passent souvent sous le radar. Un seul pesticide peut engendrer plusieurs molécules filles, parfois plus durables et plus mobiles que la molécule mère. Les connaissances sur leur toxicité sont encore très lacunaires, avec peu de tests de toxicité, peu de standards analytiques et très peu de données sur leurs effets cumulés. Ainsi, une part importante du risque nous échappe encore.

Dans un travail antérieur, mené en 2024, sur les étangs agricoles du nord-est de la France, nous avions déjà montré que plus d’une molécule détectée sur deux était un PT encore dépourvu de profil écotoxicologique connu. En d’autres termes, une partie du risque reste littéralement dans l’ombre.


À lire aussi : « L’envers des mots » : Exposome


Des crevettes pour sonder l’eau des étangs

Les grands cours d’eau font l’objet de suivis réguliers. Les étangs, eux, sont les parents pauvres de la limnologie (c’est-à-dire la science des lacs) et restent peu étudiés. Pourtant, ils ponctuent nos paysages et abritent souvent une large biodiversité constituée de poissons, d’oiseaux, de batraciens, de reptiles, d’insectes et de végétaux divers. Ils jouent aussi un rôle d’interface entre terres agricoles et nappes souterraines. Exposés aux polluants au fil du temps, ils jouent un rôle de « mémoire tampon » entre terres cultivées et milieux naturels, entre les eaux de surface et les nappes souterraines.

Pour explorer cette mémoire chimique, notre équipe a eu recours à une approche de biosurveillance active, où l’on utilise le vivant pour évaluer la qualité de l’eau. Cette méthode consiste à confronter des organismes sentinelles à l’environnement étudié afin d’observer leurs réactions biologiques, en parallèle de l’analyse chimique dite de l’exposome, décrit précédemment (l’ensemble des substances auxquelles le milieu est exposé, et de facto, nous aussi).

Gammarus roeseli est un petit crustacé utilisé en tant que sentinelle biochimique des étangs. Gaspard Conseil, Fourni par l'auteur

Croiser ces deux lectures, chimique et biologique, permet d’obtenir un indicateur global de l’état de santé d’une masse d’eau bien plus représentatif que la simple mesure de concentrations d’une liste de contaminants strictement définis.

Concrètement, nous avons placé dans sept étangs lorrains implantés le long d’un gradient de terres agricoles aux pratiques diversifiées (sans activité agricole, en agriculture biologique ou en agriculture conventionnelle) de petits crustacés d’eau douce, Gammarus roeseli, enfermés dans de fines cages perméables.

Ces gammares, discrets habitants des rivières, sont de véritables sentinelles biologiques. Leur respiration, leurs mouvements et leurs activités enzymatiques reflètent fidèlement la qualité du milieu où ils vivent. Pendant une semaine, ces organismes ont été exposés à l’eau et leur état de santé a été suivi. En parallèle, dans chaque étang, 136 substances (herbicides, insecticides, fongicides, et leurs PT) ont été recherchées.

Les résultats montrent une prédominance écrasante des produits de transformation, qui représentaient 86 % des contaminants détectés, dominés par les dérivés du chlorothalonil et du métazachlore.

Les gammares ont survécu, mais leur comportement et leur métabolisme ont changé. Ralentissement des déplacements, troubles de la respiration et activation des mécanismes de détoxification traduisent le signal précoce d’un potentiel stress toxique. Ces réactions biologiques confirment que la contamination, bien qu’étant une affaire de chimie, s’inscrit profondément dans le vivant. En d’autres termes, les organismes racontent ce que les analyses chimiques ne suffisent pas toujours à voir.

De la science au terrain : comment gouverner l’invisible ?

Reste à savoir comment intégrer au mieux ces signaux biologiques et cette mémoire chimique dans les décisions publiques et réglementaires.

Aujourd’hui, la surveillance réglementaire reste essentiellement centrée sur les substances actives autorisées. Pourtant, le risque dépasse largement ces molécules. Il s’étend dans le temps, change de forme, interagit avec d’autres contaminants et varie selon les conditions environnementales. L’environnement et sa biodiversité sont aussi le siège d’une diversité de voies de transformation et de transfert des contaminants.

La surveillance doit donc évoluer, élargir les listes de substances suivies, développer les outils biologiques, et, surtout, agir avec précaution dans un contexte où tout ne peut être mesuré ni anticipé : il serait illusoire de vouloir tout tester et suivre toutes les substances possibles et imaginables. L’enjeu est donc surtout de prioriser les composés les plus à risque et de protéger les milieux les plus vulnérables.

Il existe ainsi trois leviers pour mieux protéger les milieux aquatiques :

  • élargir la couverture analytique, c'est-à-dire les méthodes et techniques utilisées pour identifier et quantifier les PT issus de la dégradation des pesticides dans les suivis de routine,

  • renforcer les outils biologiques capables de traduire la complexité chimique en signaux écologiques mesurables, par exemple, le recours à des organismes sentinelles,

  • enfin, prioriser localement les actions de gestion (par exemple, rotation des cultures, zones tampons sans traitement, meilleure gestion des effluents et du ruissellement, ou encore l'aménagement de réseaux de drainage) adaptées aux usages et aux vulnérabilités des territoires.

De récentes observations nous montrent que les dynamiques observées en Lorraine ressemblent à celles de sites agricoles en Suisse, dans le canton de Genève. Nous menons depuis l’été 2025 des recherches avec la Haute école du paysage, d’ingénierie et d’architecture de Genève (Hépia) à ce sujet.

Ces enjeux de pollution franchissent donc les frontières, mais les solutions doivent émerger localement, en combinant restauration de zones tampons (qui permettent d’atténuer les transferts de contaminants d’origine agricole vers les milieux aquatiques), diversification des pratiques et surveillance chimique et biologique intégrée.

Une écologie de la mémoire

Les étangs sont les miroirs de nos paysages agricoles, mais en constituent surtout des archives. Ils accumulent, filtrent et témoignent des usages passés. Reconnaître cette mémoire chimique, c’est accepter que certaines traces mettent des décennies à s’effacer.

Les produits de transformation des pesticides ne sont ni marginaux ni nouveaux. Ils incarnent une génération de micropolluants qui s’ancre dans la mémoire chimique de nos agroécosystèmes. Les inclure, les considérer, c’est comprendre qu’un étang, aussi petit soit-il, peut raconter une histoire de pollutions passées, mais aussi celle d’une vigilance à retrouver.

À l’heure où les politiques de transition agricole s’accélèrent, prendre en compte ces produits de transformation est essentiel pour éviter que ces fantômes chimiques ne pèsent sur les générations futures. Ce que nous faisons aujourd’hui s’inscrira dans la mémoire environnementale de demain. À nous de choisir l’histoire que ces étangs raconteront aux générations futures.

The Conversation

Gaspard Conseil a reçu des financements de l'Office français de la biodiversité (OFB).

Damien Banas a coordonné le projet CABARETox (ContAmination des matrices Biotiques et Abiotiques par les Résidus phytopharmaceutiques en Étangs : volet écotoxicologie), financé par l’Office Français de la Biodiversité (OFB), dont sont issus les résultats présentés dans le présent article.

PDF

30.10.2025 à 11:10

Pourquoi l’écologie est d’abord une science

Sébastien Barot, Chercheur en écologie, IEES-Paris, vice-président du conseil scientifique de la Fondation pour la recherche sur la biodiversité (FRB), Institut de recherche pour le développement (IRD)

Souvent assimilée à un courant politique ou à des combats militants, l’écologie est d’abord une science. Son rôle est essentiel pour comprendre la crise environnementale.
Texte intégral (2977 mots)

Souvent assimilée à un courant politique, l’écologie est avant tout une science à part entière, qui étudie les interactions du vivant avec son environnement. Pourtant, en France, ce terme est devenu symbole de militantisme au risque d’invisibiliser le travail précieux des écologues, alors même que leurs connaissances sont indispensables pour affronter la crise environnementale en cours.

Dans « l’Écologie est une science », publié par les éditions Belin, Sébastien Barrot, directeur de recherche à l’IRD, présente son domaine de recherche, encore trop méconnu du grand public. Nous reproduisons ci-dessous un extrait de son avant-propos.


À 10 ans, quand on me demandait quel métier je souhaitais faire plus tard, je répondais  « Un -logue quelconque. » Je disais par là que je voulais devenir archéologue ou paléontologue. J’ai mal tourné, je suis devenu écologue, chercheur en écologie, et j’ai commencé à écrire ce livre parce que personne ne sait ce que ça veut dire. Si tout le monde a une idée, juste ou non, de ce qu’est un chercheur, quasiment personne ne sait en France, en dehors du cadre académique, que l’écologie est une science.

Même aujourd’hui, en pleine crise environnementale, je dois expliquer les études que j’ai faites (un master et une thèse en écologie), et on me le fait répéter au moins trois fois car ça ne paraît pas possible. Les gens pensent souvent que j’ai étudié la biologie. Cela paraît beaucoup plus sérieux, mais ce n’est pas le cas. D’autres personnes imaginent que la seule préoccupation d’un écologue est de protéger les petits oiseaux, ou que je développe de nouveaux moyens pour recycler les déchets.

Ce sont deux thématiques importantes, cependant l’écologie scientifique n’a pas uniquement pour but la protection de la nature, et seul le recyclage des déchets organiques entre, en fait, dans le champ des compétences de l’écologie puisqu’il fait intervenir des organismes décomposeurs, comme des bactéries ou des vers de terre.


À lire aussi : L’écologie expliquée aux enfants et aux ados


Un seul terme pour de nombreuses réalités

La méconnaissance de l’écologie scientifique vient de trois facteurs complémentaires.

Tout d’abord, l’écologie est une science relativement jeune. Le mot a été inventé par Ernst Haeckel en 1866, mais les sciences écologiques ne se sont vraiment développées dans le monde académique qu’après la Seconde Guerre mondiale pour les Anglo-Saxons et durant les années 1970 en France. C’est donc un développement très récent, ce qui signifie que les bases de cette science doivent encore être consolidées, et sa structure affinée. Le système académique étant très conservateur, l’écologie scientifique a parfois du mal à trouver sa place parmi les disciplines plus anciennes. Malgré la gravité des problèmes environnementaux actuels, et contrairement à ce qu’on pourrait penser, il est souvent difficile d’augmenter le volume des enseignements d’écologie du primaire à l’université, et la recherche en écologie n’est pas particulièrement bien financée.

De plus, en France, le terme « écologie » est utilisé aussi bien pour désigner une science que des mouvements politiques environnementalistes ou verts, entraînant de fait une confusion entre le travail de recherche et l’action politique, ou même le militantisme. Il est important de souligner que, la plupart du temps, lorsque quelqu’un intervient dans les médias pour parler de protection de la nature, il s’agit d’un militant ou d’une militante (ou parfois même d’un chercheur d’une autre discipline !). Si ces derniers utilisent souvent les connaissances développées par l’écologie scientifique, ils ne sont pas chercheurs en écologie pour autant.

On pense facilement à de grandes figures, comme Hubert Reeves, qui ont joué et jouent un rôle important et utile dans la dissémination des savoirs et idées écologiques. Ces grandes figures médiatiques mêlent toujours dans leurs discours des messages environnementalistes et d’autres plus fondamentaux et proches des sciences écologiques. Tout cela entraîne des conséquences globalement positives, mais contribue à invisibiliser la science écologique et le travail des chercheuses et chercheurs qui la pratique. D’autant que dans les autres sciences (biologie, physique, chimie…), quand les médias ont besoin d’éclairages, c’est bien à un spécialiste du domaine que l’on fait appel en général.

Enfin, l’écologie est une science intégrative. C’est-à-dire qu’elle utilise les autres sciences (biologie, géologie, climatologie, chimie…) et qu’il est donc difficile de l’identifier en elle-même. Ce fonctionnement fait sa force, mais il rend son positionnement plus difficile. En effet, les systèmes académique et médiatique fonctionnent beaucoup « par boîtes » et la mauvaise identification d’une science et de ses spécialistes complique la prise en compte des connaissances qu’elle développe.

Cela explique en partie que les sociétés humaines soient si lentes à prendre des mesures pour atténuer la crise de la biodiversité et qu’elle reste moins bien prise en compte que la crise climatique par les pouvoirs publics (même si de ce côté-là, cela avance, bien que beaucoup trop lentement).


À lire aussi : La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier


Mais alors l’écologie, c’est quoi ?

Ma définition préférée de l’écologie est la suivante : c’est la science qui étudie les interactions entre les êtres vivants (par exemple, entre les espèces de plantes d’une prairie) et leur environnement physico-chimique (par exemple, entre les plantes de cette prairie et les caractéristiques du sol comme son pH ou sa teneur en azote) et les conséquences de ces interactions à toutes les échelles temporelles (de la seconde à des millions d’années) et spatiales (de l’agrégat de sol d’un millimètre à la biosphère) possibles. Cette définition peut paraître un peu abstraite mais elle prendra tout son sens au cours du livre.

Il est important de retenir que l’écologie traite bien d’organismes vivants, tout en étant distincte de la biologie. Cette dernière a tendance à étudier le fonctionnement interne des êtres vivants. Historiquement, à l’aide de moyens techniques de plus en plus sophistiqués, la biologie les a découpés en parties de plus en plus petites (l’organe, la cellule, la molécule, le gène) pour analyser la manière dont le fonctionnement interne d’un organisme et de nombreux mécanismes de régulation permet aux organismes de grandir, de survivre et de se reproduire. C’est aussi grâce à la biologie que l’on comprend les mécanismes de développement d’un organisme à partir de ses gènes.

À l’inverse, les sciences de l’univers (géochimie, climatologie, hydrologie…) s’intéressent essentiellement au fonctionnement physico-chimique, aux éléments abiotiques, de l’environnement et de la planète Terre. Par exemple, ces sciences permettent de quantifier les flux d’eau (évaporation, précipitation, ruissellement…) à des échelles variées depuis le mètre carré jusqu’à la planète entière ou encore les flux d’azote, composante chimique essentielle de toute la matière vivante.

L’écologie se trouve exactement à mi-chemin entre la biologie et les sciences de l’univers : elle traite à la fois des organismes vivants et de leur environnement physico-chimique. Elle fait le lien entre les deux et étudie leurs interactions qui sont bidirectionnelles. Les organismes dépendent de leur environnement (température, humidité…) et des ressources qu’ils y puisent. Si les conditions physico-chimiques sont bonnes (ni trop chaud ni trop froid, suffisamment humide…), ils pourront grandir et se reproduire ; si les conditions sont un peu moins bonnes, cela devient plus difficile ; si elles empirent, les organismes ont de grandes chances de mourir. D’une manière peut-être moins évidente, mais tout aussi importante, les organismes modifient leur environnement physico-chimique en y puisant des ressources (CO2, eau et nutriments minéraux pour une plante), par des activités variées (galeries des vers de terre) ou simplement par leur présence (un arbre fait de l’ombre).

L’écologie est une science à part entière qui a développé son propre cadre conceptuel, ses écoles de pensée et ses outils. Elle fonctionne au quotidien comme les autres sciences : il y a des formations (masters, écoles doctorales), des chercheuses et des chercheurs, des laboratoires et des journaux internationaux en anglais spécialisés.

Elle s’appuie cependant, nous l’avons vu, sur de nombreuses sciences, de la biologie à la climatologie, en passant par la physique ou la chimie. Les résultats de ces différents domaines servent d’éléments de contexte et leurs méthodes et outils sont utilisés comme des couteaux suisses modulables pour répondre à des questions propres à l’écologie. Par exemple, l’étude des interactions entre un ver de terre et le sol peut nécessiter de connaître le fonctionnement interne du ver de terre, tel son mode de digestion (biologie), mais aussi l’impact de l’espèce sur la chimie du sol (chimie).

L’écologie peut aussi étudier comment le climat influence la croissance des plantes en prenant en compte la quantité d’énergie apportée par la lumière solaire et utilisable pour la photosynthèse, ou la température et l’humidité de l’air qui influencent la quantité d’eau transpirée par les plantes. Ou encore la manière dont les plantes influencent le climat en fixant plus ou moins de carbone par la photosynthèse ou en renvoyant plus ou moins de vapeur d’eau dans l’atmosphère. Ces résultats peuvent alors servir aux climatologues pour améliorer les prédictions climatiques.

Par ailleurs, l’écologie est indissociable de l’évolution des organismes vivants au sens darwinien, car ils présentent tous une histoire évolutive : ils ont été façonnés par une succession de pressions de sélection et de processus évolutifs qui ont conduit aux caractéristiques actuelles des organismes et ont contribué à leur diversité. De ce fait, les interactions écologiques entre eux ou avec leur milieu physico-chimique ont été façonnées par l’évolution. Il est important de le prendre en compte pour mieux comprendre et interpréter les fonctionnements écologiques actuels.

Ainsi, les plantes ont construit au cours de l’évolution des mutualismes avec leurs pollinisateurs. Étudier cette évolution peut aider à comprendre la pollinisation et ses conséquences. À l’inverse, les interactions écologiques, elles-mêmes, constituent un des principaux moteurs de l’évolution : la sélection naturelle est fondée sur le fait que les organismes les mieux adaptés à une situation écologique donnée (caractéristiques de l’environnement, existence d’un prédateur…) ont plus de descendants si bien que leurs caractéristiques deviennent dominantes au sein de l’espèce du fait de leur transmission génétique.

Dans ce contexte, les mécanismes conférant à certains individus un avantage sont liés à des interactions écologiques : certaines caractéristiques leur permettent de mieux interagir avec les autres organismes ou leur environnement physico-chimique, acquérant ainsi plus de ressources, augmentant leur survie ou leur fécondité. Tous ces mécanismes sont étudiés en écologie. On sait maintenant que l’évolution peut être suffisamment rapide pour interférer avec les processus écologiques à des échelles de temps communes. Cela signifie qu’il ne s’agit pas simplement d’un phénomène ancien qu’il faut étudier pour comprendre les organismes ayant disparu depuis longtemps, mais que les organismes continuent actuellement à évoluer.

De domaines en sous-domaines

Plus généralement, l’écologie aborde des sujets si variés qu’il est nécessaire de la diviser en sous-domaines.

L’écologie se compose de plusieurs sous-domaines. Sébastien Barrot/Belin, Fourni par l'auteur

Bien sûr, on peut en classer les différents champs selon le milieu étudié (écologie forestière, écologie aquatique, écologie des sols…), mais il est important de différencier également certaines approches. En effet, une partie importante de l’écologie, l’écologie des populations, se focalise sur les groupes d’individus d’une même espèce qui interagissent entre eux au sein d’un milieu donné (ce qu’on appelle une « population »). Elle se concentre donc sur les individus, sur ce qu’ils font et sur leur démographie (comme on le ferait pour des populations humaines), s’appuyant notamment pour cela sur leur recensement (on peut, par exemple, compter le nombre d’arbres dans une forêt). L’écologie des populations est fortement liée à l’écologie évolutive, qui étudie l’évolution darwinienne des organismes, puisque l’individu est l’unité de base dans tous les processus évolutifs.

Proche de l’écologie des populations, on trouve aussi celle du comportement qui cherche à analyser le comportement des individus au sein d’une population en fonction de leur environnement, avec souvent des interprétations liées à l’évolution darwinienne des organismes. On distingue ensuite l’écologie des communautés qui étudie les interactions entre populations (d’espèces différentes) dans un même milieu. Cela permet d’aborder, par exemple, les relations proie-prédateur, les symbioses, ou de décrire des communautés d’organismes (le nombre d’espèces, leur abondance relative, leurs caractéristiques, et les facteurs qui déterminent tout ça). On arrive alors à l’écologie fonctionnelle qui étudie la manière dont les organismes arrivent à puiser des ressources dans leur milieu et à les transformer en biomasse, ainsi que la quantité de matière et d’énergie qu’ils échangent avec leur milieu…

Enfin, l’écologie des écosystèmes est proche de l’écologie fonctionnelle puisqu’elle étudie la manière dont ils fonctionnent. Un écosystème comprend à la fois l’ensemble des populations en interaction dans un lieu donné et leur milieu physico-chimique (sol, climat…). Il s’agit donc d’intégrer tous les types d’interactions écologiques entre populations ainsi qu’entre elles et leur milieu physico-chimique, et de comprendre comment cela détermine les propriétés émergentes des écosystèmes, telle que leur production primaire. Là où l’écologie des populations est focalisée sur les individus, l’écologie fonctionnelle et celle des écosystèmes étudient plutôt les flux de matière (carbone, azote, eau…) et d’énergie entre les organismes et avec leur milieu. Ce type d’approche permet souvent d’aller vers des échelles spatiales de plus en plus grandes. On peut, par exemple, mesurer la biomasse de la végétation ou la quantité de carbone dans la matière organique du sol à l’échelle du mètre carré, mais aussi d’une prairie, d’une région, d’un continent…

The Conversation

Sébastien Barot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.10.2025 à 15:49

Avec les restrictions d’âge sur les réseaux sociaux, Internet entre-t-il dans une nouvelle ère de contrôle moral ?

Alex Beattie, Lecturer, Media and Communication, Te Herenga Waka — Victoria University of Wellington

À mesure que les interdictions d’accès des jeunes aux réseaux sociaux se multiplient, une question surgit : Internet est-il en train de basculer dans une nouvelle ère de contrôle moral ?
Texte intégral (1593 mots)
L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements. Getty Images

De l’Australie au Danemark, les projets d’interdire TikTok ou Instagram aux adolescents se multiplient. Derrière les arguments de protection des mineurs, ces restrictions d’âge sur les réseaux sociaux traduisent un tournant culturel et moral.


Une vague de projets d’interdictions des réseaux sociaux aux plus jeunes déferle à travers le monde, nourrie par l’inquiétude croissante face aux effets supposés de TikTok, Instagram ou Snapchat sur des esprits jugés vulnérables.

L’Australie a été la première à annoncer des restrictions visant les moins de 16 ans. La Nouvelle-Zélande pourrait bientôt emboîter le pas et au Danemark, la première ministre a déclaré vouloir interdire les réseaux sociaux aux moins de 15 ans, accusant téléphones et plateformes de « voler l’enfance de nos enfants ».

Le Royaume-Uni, la France (le rapport parlementaire, publié en septembre 2025, préconise d’interdire les réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15-18 ans, de 22 heures à 8 heures, ndlt), la Norvège, mais aussi le Pakistan et les États-Unis envisagent ou mettent en place des mesures similaires, souvent conditionnées à un consentement parental ou à une vérification d’identité numérique.

À première vue, ces politiques visent à protéger la jeunesse des risques, pour la santé mentale, d’exposition à des contenus explicites ou de ceux de mécanismes addictifs. Mais derrière le vocabulaire de la sécurité se dessine autre chose : un basculement des valeurs culturelles.

Ces interdictions traduisent une inflexion morale, au risque de ressusciter des conceptions conservatrices qui précèdent Internet. Sommes-nous en train d’entrer dans une nouvelle ère victorienne du numérique, où la vie en ligne des jeunes serait remodelée non seulement par la régulation, mais aussi par un regain de contrôle moral ?

Un discours sur le déclin moral

L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements, l’école jouant un rôle central dans la transmission des hiérarchies sociales et genrées. On en retrouve aujourd’hui des échos dans le discours sur le « bien-être numérique ». Applications de suivi du temps d’écran, cures de « détox digitale » ou téléphones simplifiés sont présentés comme des moyens de cultiver une vie connectée « saine » – souvent sur fond de morale implicite. L’utilisateur idéal est calme, concentré, mesuré ; l’utilisateur impulsif ou expressif est pathologisé.

Cette vision est notamment popularisée par le psychologue Jonathan Haidt, auteur de The Anxious Generation (2024), devenu une référence du mouvement en faveur des restrictions d’âge. Selon lui, les réseaux sociaux accentuent les comportements performatifs et la dysrégulation émotionnelle chez les jeunes. La vie numérique des adolescents est ainsi décrite comme un terrain de fragilisation psychologique, de polarisation accrue et d’effritement des valeurs civiques communes.

Vu sous cet angle, la vie numérique des jeunes se traduit par une résilience psychologique en déclin, par une polarisation croissante et par l’érosion des valeurs civiques communes, plutôt que par un symptôme de mutations complexes. Cela a contribué à populariser l’idée que les réseaux sociaux ne sont pas seulement nocifs mais corrupteurs.

Mais ces thèses font débat. De nombreux chercheurs soulignent qu’elles reposent sur des corrélations fragiles et sur des interprétations sélectives. Certaines études établissent un lien entre usage intensif des réseaux sociaux et troubles anxieux ou dépressifs, mais d’autres montrent des effets modestes, variables selon les contextes, les plateformes et les individus. Surtout, ces analyses négligent la marge de manœuvre des jeunes eux-mêmes, leur capacité à naviguer dans les espaces numériques de façon créative, critique et sociale.

En réalité, la vie numérique des jeunes ne se résume pas à une consommation passive. C’est un espace de littératie, d’expression et de connexion. Des plateformes, comme TikTok et YouTube, ont favorisé une véritable renaissance de la communication orale et visuelle.

Les jeunes assemblent des mèmes, remixent des vidéos et pratiquent un montage effréné pour inventer de nouvelles formes de récit. Il ne s’agit pas de signes de déclin, mais de narrations en évolution. Réglementer leur accès sans reconnaître ces compétences, c’est risquer d’étouffer la nouveauté au profit du déjà-connu.

Réguler les plateformes, pas les jeunes

C’est ici que la comparaison avec l’ère victorienne a toute son utilité. De la même façon que les normes victoriennes visaient à maintenir un ordre social particulier, les restrictions d’âge actuelles risquent d’imposer une vision étroite de ce que devrait être la vie numérique.

En apparence, des termes comme celui de « brain rot » (pourrissement du cerveau) semblent désigner les effets nocifs d’un usage excessif d’Internet. Mais en pratique, les adolescents les emploient souvent pour en rire et pour résister aux pressions de la culture de la performance permanente.

Les inquiétudes autour des habitudes numériques des jeunes semblent surtout enracinées dans la peur d’une différence cognitive – l’idée que certains usagers seraient trop impulsifs, trop irrationnels, trop déviants. Les jeunes sont fréquemment décrits comme incapables de communiquer correctement, se cachant derrière leurs écrans et évitant les appels téléphoniques. Pourtant, ces changements reflètent des mutations plus larges dans notre rapport à la technologie. L’attente d’une disponibilité et d’une réactivité constantes nous attache à nos appareils d’une manière qui rend la déconnexion véritablement difficile.

Les restrictions d’âge peuvent atténuer certains symptômes, mais elles ne s’attaquent pas au problème de fond : la conception même des plateformes, construites pour nous faire défiler, partager et générer toujours plus de données.

Si la société et les gouvernements veulent vraiment protéger les jeunes, la meilleure stratégie serait sans doute de réguler les plateformes numériques elles-mêmes. Le juriste Eric Goldman qualifie l’approche fondée sur les restrictions d’âge de « stratégie de ségrégation et de répression » – une politique qui punit la jeunesse plutôt que de responsabiliser les plateformes.

On n’interdit pas aux enfants d’aller dans les aires de jeux, mais on attend de ces espaces qu’ils soient sûrs. Où sont les barrières de sécurité pour les espaces numériques ? Où est le devoir de vigilance des plateformes ?

La popularité croissante des interdictions de réseaux sociaux traduit un retour en force de valeurs conservatrices dans nos vies numériques. Mais la protection ne doit pas se faire au prix de l’autonomie, de la créativité ou de l’expression.

Pour beaucoup, Internet est devenu un champ de bataille moral, où s’affrontent des conceptions opposées de l’attention, de la communication et de l’identité. Mais c’est aussi une infrastructure sociale que les jeunes façonnent déjà par de nouvelles formes de narration et d’expression. Les en protéger reviendrait à étouffer les compétences et les voix mêmes qui pourraient nous aider à construire un futur numérique plus riche et plus sûr.

The Conversation

Alex Beattie reçoit des financements de la Royal Society Te Apārangi. Il est lauréat d’une bourse Marsden Fast Start.

PDF

29.10.2025 à 15:35

Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique

Gaël Mariani, Docteur en écologie marine, World Maritime University

Anaëlle Durfort, Doctorante en écologie marine, Université de Montpellier

David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier

Jérôme Guiet, Researcher in marine ecosystem modeling, University of California, Los Angeles

La pêche industrielle réduit la capacité des océans à stocker le CO₂. Protéger la haute mer pourrait renforcer ce puits de carbone vital sans menacer la sécurité alimentaire.
Texte intégral (3275 mots)

Les océans jouent un rôle majeur dans le stockage du carbone, notamment à travers la biomasse qu’ils abritent. Le cycle de vie des poissons contribue ainsi à piéger durablement le CO2 dans les abysses, mais la pêche industrielle a affaibli ce mécanisme essentiel, également menacé par le changement climatique. Restaurer les populations marines en haute mer pourrait renforcer ce puits de carbone naturel tout en limitant les conflits avec la sécurité alimentaire.


Lorsqu’on parle des puits de carbone naturels, ces systèmes naturels qui piègent plus de carbone qu’ils n’en émettent, on pense plus volontiers aux forêts et aux sols qu’aux océans. Pourtant, les océans représentent le second puits de carbone naturel.

L’impact des activités humaines (et en particulier la pêche) sur le stockage de carbone océanique n’avait été jusque-là que peu étudié, et cela alors que la macrofaune marine (notamment les poissons) représente environ un tiers du carbone organique stocké par les océans. Nos recherches, récemment publiées dans les revues Nature Communications et One Earth, ont voulu y remédier.

Nos résultats montrent que la pêche a d’ores et déjà réduit la séquestration de carbone par les poissons de près de moitié depuis 1950. D’ici la fin du siècle, cette baisse devrait atteindre 56 % sous l’effet combiné de la pêche et du changement climatique. De quoi plaider pour une gestion plus durable de l’océan, qui prendrait en compte l’impact de la pêche sur la séquestration de carbone.

Pourquoi s’intéresser à la séquestration de carbone dans les océans ?

Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) le dit explicitement dans ses rapports : pour atteindre les objectifs climatiques, il faut d’abord réduire drastiquement et immédiatement nos émissions de gaz à effet de serre (chaque année, les activités humaines émettent environ 40 milliards de tonnes équivalent CO₂), puis développer les solutions climatiques fondées sur la nature.

Celles-ci intègrent l’ensemble des mesures de restauration, de protection et de meilleure gestion des écosystèmes qui piègent du carbone, comme les forêts. Ces mesures pourraient capturer 10 milliards de tonnes équivalent CO₂ par an, et doivent être mises en œuvre de façon complémentaire à des politiques de réduction des émissions.

Cependant, le carbone stocké par ces écosystèmes est de plus en plus menacé par le changement climatique. Par exemple, les feux de forêt au Canada ont émis 2,5 milliards de tonnes équivalent CO₂ en 2023 : la forêt n’est alors plus un puits de carbone, mais devient une source d’émissions.


À lire aussi : Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?


Face à ce constat, la communauté scientifique se tourne aujourd’hui vers les océans, à la recherche de nouvelles solutions qui permettraient d’y séquestrer davantage de carbone.

Mais, pour que cela soit possible, il faut d’abord comprendre comment la vie abritée par les océans interagit avec le cycle du carbone ainsi que l’influence du changement climatique, d’une part, et de la pêche, d’autre part.

Quel est le rôle joué par les poissons dans ce processus ?

La vaste majorité des 38 000 milliards de tonne de carbone stocké par l’océan l’est à travers des phénomènes physiques. Mais la biomasse des océans y contribue également, à hauteur d’environ 1 300 milliards de tonnes de carbone organique. Les poissons représentent environ 30 % de ce stock de carbone.

Ceci est rendu possible via leur contribution à ce qu’on appelle la pompe biologique du carbone, c’est-à-dire, la série de processus biologiques qui permettent de transporter le carbone des eaux de surface vers les fonds marins. C’est un élément majeur du cycle du carbone.

Cette pompe biologique commence par le phytoplancton, capable de transformer du CO2 en matière organique carbonée. À sa mort, une partie de ce carbone va couler dans les profondeurs de l’océan où il sera séquestré durablement, tandis que le reste sera ingéré par des prédateurs. À nouveau, c’est lorsque ce carbone va couler dans les profondeurs (pelotes fécales, carcasses des prédateurs morts…) qu’il sera durablement séquestré.

Les poissons jouent un rôle clé dans ce processus : leurs carcasses et pelotes fécales, plus denses, coulent bien plus rapidement que celles du plancton. Or, plus le carbone coule rapidement vers les profondeurs – et s’éloigne de l’atmosphère –, plus le temps qu’il mettra avant de retourner à l’atmosphère sera important : le carbone sera ainsi stocké de façon plus durable.

La pompe biologique du carbone et la contribution des différents organismes sont le fruit d’une combinaison de processus : (1) La conversion du CO₂ en carbone organique par le phytoplancton qui réalise la photosynthèse ; (2) le phytoplancton contribue à la séquestration de carbone via la chute gravitationnelle des cellules phytoplanctoniques mortes ; (3) le phytoplancton et le carbone qu’il contient sont mangés par le zooplancton. Le zooplancton contribue à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré. (6) Le zooplancton et le carbone qu’il contient sont mangés par des poissons. Les poissons contribuent à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré. Fourni par l'auteur

Notre étude, qui s’est spécifiquement intéressée aux espèces de poissons d’intérêt commercial (c’est-à-dire ciblées par la pêche), estime que ces derniers étaient en mesure de séquestrer 0,23 milliard de tonnes de carbone par an en 1950 (soit 0,85 tonne de CO2 par an).


À lire aussi : Éliminer le CO₂ grâce au puits de carbone océanique, une bonne idée ?


Un cercle vicieux du fait du changement climatique

Mais depuis 1950, les choses ont changé. D’abord du fait du changement climatique : à cause de la raréfaction des ressources alimentaires (moins de phytoplancton) et des changements de conditions environnementales (température, oxygène…), plus le changement climatique sera fort, plus la biomasse des espèces d’intérêt commercial – et par extension, leur capacité à piéger du carbone – vont diminuer.

  • Dans un scénario où l’augmentation moyenne des températures serait limitée à 1,5 °C (scénario de respect de l’accord de Paris), la biomasse baisserait d’environ 9 % d’ici la fin du siècle, soit une diminution de piégeage de carbone d’environ 4 %.

  • Dans le cas d’un scénario de statu quo où les températures augmenteraient de 4,3 °C, cette baisse atteindrait environ 24 % pour la biomasse, et près de 14 % pour le piégeage de carbone.

Nous avons donc à faire à ce que l’on appelle une boucle de rétroaction positive – autrement dit, un cercle vicieux : plus le changement climatique est important, moins les poissons séquestreront de carbone, ce qui va renforcer le changement climatique lui-même. C’est le serpent qui se mord la queue.

Une séquestration carbone déjà réduite de moitié par la pêche

L’impact du changement climatique dans le scénario d’un réchauffement à 1,5 °C (que nous sommes en passe de dépasser) reste donc faible, mais les effets de la pêche, eux, sont déjà visibles.

Aujourd’hui, les espèces de poissons commerciales ne piègent déjà plus que 0,12 milliard de tonnes de CO2 par an (contre 0,23 milliard de tonnes de carbone par an en 1950), soit une diminution de près de moitié.

D’autant plus que les effets de la pêche ne sont pas les mêmes selon la voie de séquestration considérée. Depuis 1950, la pêche a réduit la séquestration de carbone via les pelotes fécales d’environ 47 %. Pour la voie passant par les carcasses, cette diminution est d’environ 63 %.

Ceci est lié au fait que la pêche cible les plus gros organismes, soit ceux qui ont le moins de prédateurs – et donc ceux le plus susceptibles de mourir de vieillesse et de voir leur carcasse couler dans les abysses.

Cette diminution est aussi synonyme d’une réduction de l’arrivée de nourriture dans les abysses, les carcasses étant une ressource particulièrement nutritive pour les organismes qui y vivent.

Or, nous connaissons très peu de choses sur ces écosystèmes abyssaux, avec des millions d’espèces qui restent à découvrir. Nous n’avons pour l’instant observé que 0,001 % de la surface totale de ces écosystèmes. Nous sommes donc peut-être en train d’affamer une multitude d’organismes abyssaux que nous connaissons à peine.

Pour préserver le climat, restaurer les populations de poissons ?

Notre étude montre que si les populations de poissons étaient restaurées à leur niveau historique de 1950, cela permettrait de séquestrer 0,4 milliard de tonnes de CO2 supplémentaires par an, soit un potentiel comparable à celui des mangroves. Avec un atout : ce carbone serait séquestré pour environ six cents ans, soit plus longtemps que dans les mangroves, où seuls 9 % du carbone piégé l’est encore après cent ans.

Cependant, malgré ce potentiel notable, les solutions climatiques basées sur la restauration de la macrofaune marine, si elles étaient mises en œuvre seules, n’auraient qu’un impact mineur sur le climat, au regard des 40 milliards de tonnes de CO₂ émis chaque année.

D’autant plus que, ce domaine de recherche étant récent, plusieurs incertitudes subsistent. Par exemple, nos études ne tiennent pas compte des relations trophiques (c’est-à-dire, liées à la chaîne alimentaire) entre les prédateurs et leurs proies, lesquelles contribuent aussi à la séquestration de carbone. Or, si on augmente la biomasse des prédateurs, la biomasse des proies va mécaniquement diminuer. Ainsi, si la séquestration de carbone par les prédateurs augmente, celle des proies diminue, ce qui peut neutraliser l'impact des mesures visant à restaurer les populations de poissons pour séquestrer du carbone.

Ainsi, nos résultats ne doivent pas être vus comme une preuve suffisante pour considérer de telles mesures comme une solution viable. Ils illustrent néanmoins l’importance d’étudier l’impact de la pêche sur la séquestration de carbone et la nécessité de protéger l’océan pour limiter les risques d’épuisement de ce puits de carbone, tout en tenant compte des services rendus par l’océan à nos sociétés (sécurité alimentaire, emplois…).

Des conflits entre pêche et séquestration de carbone surtout en haute mer

En effet, les organismes marins participent directement à la séquestration de carbone, tout en bénéficiant aussi au secteur de la pêche. Or, ce secteur est une source d’emplois et de revenus économiques majeurs pour les populations côtières, contribuant directement au maintien et à l’atteinte de la sécurité alimentaire dans certaines régions.

Des conflits entre la séquestration de carbone et les bénéfices socio-économiques de la pêche peuvent donc théoriquement apparaître. Si la pêche augmente, les populations de poissons et leur capacité à séquestrer du carbone vont diminuer, et inversement.

Toutefois, nous avons montré que seulement 11 % de la surface de l’océan est potentiellement exposée à de tels conflits. Il s’agit des zones où l’effort de pêche et la séquestration de carbone sont tous deux élevés.

Les zones potentiellement conflictuelles entre la pêche et la séquestration de carbone par les poissons correspondent aux zones où (1) l’effort de pêche est fort et (2) les poissons contribuent fortement à la séquestration de carbone. La majorité de ces zones (environ 60 %) sont situées en haute mer, c’est-à-dire à plus de 370 kilomètres des côtes, au-delà de toute juridiction nationale. Fourni par l'auteur

De plus, une majorité (environ 60 %) de ces zones potentiellement conflictuelles sont situées en haute mer, là où les captures contribuent de façon négligeable à la sécurité alimentaire globale. Aussi, la pêche en haute mer est connue pour sa faible rentabilité et son subventionnement massif par les gouvernements (à hauteur de 1,5 milliard de dollars, soit plus de 1,2 milliard d’euros, en 2018).

Ces subventions gouvernementales sont vivement critiquées, car elles menacent la viabilité des pêcheries côtières artisanales, favorisent la consommation de carburant et augmentent les inégalités entre les pays à faibles et hauts revenus.

Ainsi, nos résultats apportent un argument supplémentaire en faveur de la protection de la haute mer. En plus d’éviter de multiples effets socio-économiques négatifs, cela permettrait également de protéger la biodiversité et, par la même occasion, de préserver la capacité des océans à séquestrer du carbone organique.

The Conversation

Le financement a été assuré par la bourse de doctorat de l'Université de Montpellier à G.M. et la bourse de la Fondation de la Mer. de Montpellier à G.M. Le travail de G.M. a été partiellement financé par l'Union européenne dans le cadre de l'accord de subvention n°101083922 (OceanICU). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'Agence exécutive pour la recherche européenne. L'Union européenne et l'autorité qui a octroyé la subvention ne peuvent en être tenues pour responsables.

Anaëlle Durfort a participé à ce travail dans le cadre de son doctorat, financé par une bourse de thèse (publique) à l'université de Montpellier.

David Mouillot et Jérôme Guiet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

29.10.2025 à 15:34

Redirection du commerce chinois vers l’Europe : petits colis, grand détour

Charlotte Emlinger, Économiste, CEPII

Kevin Lefebvre, Économiste, CEPII

Vincent Vicard, Économiste, adjoint au directeur, CEPII

À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis.
Texte intégral (1389 mots)

À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis. Explication en chiffres et en graphiques.


La hausse spectaculaire des droits de douane imposée par les États-Unis aux importations en provenance de Chine (57,6 % fin août, après un pic à 135,3 % en avril d’après les calculs du Peterson Institute for International Economics) ferme largement le marché états-unien aux exportateurs chinois. La chute massive des exportations chinoises vers les États-Unis qui s’en est suivie, en recul de près de 25 % sur la période juin-août 2025 par rapport aux mêmes mois de 2024, témoigne de l’ampleur du choc.

Le risque est que, confrontés à la fermeture de l’un de leurs deux principaux marchés, les exportateurs chinois cherchent à réorienter leurs exportations, laissant planer le doute d’une redirection massive vers l’Union européenne (UE). Dans cette perspective, la Commission européenne a mis en place une surveillance du détournement des flux commerciaux pour identifier les produits faisant l’objet d’une hausse rapide des quantités importées et d’une baisse de prix, toutes origines confondues.

Dynamiques saisonnières

Le premier graphique montre que, depuis février, la baisse des exportations chinoises s’est accompagnée d’une hausse de celles vers l’Union européenne. Une analyse des évolutions passées révèle toutefois que la hausse observée au deuxième trimestre 2025 correspond en partie à un rebond saisonnier observé à la même époque les années précédentes et lié au Nouvel An chinois, que cela soit pour l’Union européenne, les États-Unis, le Vietnam, le Japon ou la Corée du Sud. Il est essentiel d’interpréter les évolutions récentes au regard des dynamiques saisonnières des années antérieures.

Observer une hausse des importations ne suffit pas à conclure à une redirection du commerce chinois des États-Unis vers l’Union européenne (UE).

Pour qu’un tel phénomène soit avéré, il faut que les mêmes produits soient simultanément concernés par une hausse des volumes d’exportations de la Chine vers l’UE et une baisse vers les États-Unis. Par exemple, une hausse des exportations de véhicules électriques chinois vers l’UE ne peut pas être considérée comme une réorientation du commerce puisque ces produits n’étaient pas exportés auparavant vers les États-Unis.

De la même manière, les produits faisant l’objet d’exceptions dans les droits mis en place par Donald Trump, comme certains produits électroniques, certains combustibles minéraux ou certains produits chimiques, ne sont pas susceptibles d’être réorientés. Cela ne signifie pas qu’une augmentation des flux d’importations de ces produits ne soulève pas des enjeux de compétitivité et de concurrence pour les acteurs français ou européens. Mais ces enjeux sont d’une autre nature que ceux liés à une pure redirection du commerce chinois consécutive à la fermeture du marché des États-Unis.

Deux critères complémentaires

Pour identifier les produits pour lesquels la fermeture du marché états-unien a entraîné une redirection du commerce chinois vers l’Union européenne (UE), nous combinons deux critères :

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers l’UE augmente plus vite que celui des trois quarts des autres produits chinois exportés vers l’UE en 2024.

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers les États-Unis diminue plus vite que celui des trois quarts des autres produits chinois exportés vers les États-Unis en 2024.

Seuls les produits pour lesquels les exportations chinoises vers les États-Unis étaient suffisamment importantes avant la fermeture du marché états-unien sont retenus. Soit les 2 499 produits pour lesquels la part des États-Unis dans les exportations chinoises dépassait 5 % en 2024. Pour 402 de ces produits, le volume des exportations chinoises a enregistré une forte baisse entre juin-août 2024 et juin-août 2025.

Près de 176 produits concernés

En combinant les deux critères, 176 produits sont concernés en juin-août 2025 (graphique 2), soit 44 % des produits dont les ventes ont nettement chuté sur le marché états-unien. Parmi eux, 105 concernent des produits pour lesquels l’Union européenne a un avantage comparatif révélé, c’est-à-dire pour lesquels la hausse des importations se fait sur une spécialisation européenne.

Moins de la moitié des 176 produits connaît simultanément une forte baisse de leur prix, suggérant qu’une partie de la redirection du commerce chinois entraîne une concurrence par les prix sur le marché européen.

En valeur, les 176 produits identifiés représentent 7,2 % des exportations chinoises vers l’Union européenne sur la dernière période disponible, et la tendance est clairement à la hausse (graphique 3). Cette progression s’explique pour beaucoup par la hausse des flux de petits colis redirigés vers l’UE depuis qu’en avril 2025, les États-Unis ont supprimé l’exemption de droits de douane sur les colis en provenance de Chine.

Secteurs des machines, chimie et métaux

Les produits sujets à redirection vers le marché européen sont très inégalement répartis entre secteurs (graphique 4). En nombre, on les retrouve concentrés dans les secteurs des machines et appareils (42 produits), de la chimie (31) et des métaux (22). En valeur cependant, les secteurs les plus concernés sont de très loin les petits colis (qui représentent 5,4 % du commerce bilatéral en juin-août 2025) et, dans une moindre mesure, les équipements de transport, les huiles et machines et appareils.

En comparaison, le Japon subit davantage la réorientation du commerce chinois puisque 298 produits sont identifiés en juin-août 2025 (graphique 5). Ces produits représentent une part beaucoup plus importante des exportations chinoises vers le Japon (16,2 % en juin-août 2025). Des dynamiques similaires sont observées en Corée du Sud (196 produits, représentant 2,7 % de son commerce bilatéral avec la Chine) et le Vietnam (230 produits, 6,5 % de son commerce bilatéral avec la Chine).

Fin du régime douanier simplifié

Consciente de la menace qu’ils représentent, la Commission européenne prévoit, dans le cadre de la prochaine réforme du Code des douanes, de mettre fin au régime douanier simplifié dont ces petits colis bénéficient actuellement. Cette réforme ne devrait pas entrer en vigueur avant 2027. D’ici là, certains États membres tentent d’aller plus vite.

En France, le gouvernement a récemment proposé, dans le cadre de son projet de loi de finance, d’instaurer une taxe forfaitaire par colis. Mais, sans coordination européenne, la mesure risque d’être contournée : les colis pourraient simplement transiter par un pays de l’UE à la taxation plus clémente.

Au-delà des petits colis, un certain nombre d’autres produits sont également soumis à des hausses rapides des quantités importées, susceptibles de fragiliser les producteurs européens, mais ils représentent une part limitée des importations européennes en provenance de Chine. Des tendances qui devront être confirmées dans les prochains mois par un suivi régulier.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

29.10.2025 à 15:33

Cancer du sein : l’allaitement maternel diminue le risque

Isabelle Romieu, Professeur d’épidémiologie, National Institute of Public Health of Mexico

Allaiter son enfant est un facteur protecteur contre le cancer du sein, y compris pour les périodes d’allaitement les plus courtes.
Texte intégral (2326 mots)

Le cancer du sein demeure la première cause de mortalité par cancer chez les femmes. Outre le dépistage, la lutte contre la maladie passe également par la prise en compte des facteurs de risque modifiables sur lesquels il est possible d’agir. Si l’alcool, le tabac, le surpoids ou la sédentarité sont fréquemment mentionnés, on sait peut-être moins que le fait de ne pas avoir allaité en constitue aussi un.


En 2025, « Octobre rose » a fêté son 32ᵉ anniversaire. Chaque année, cette campagne mondiale de communication vise un double objectif : sensibiliser au dépistage du cancer du sein et récolter des fonds pour la recherche.

Cet événement, symbolisé par le ruban rose, est plus que jamais d’actualité. En effet, en France, le cancer du sein continue malheureusement à progresser. Il représente aujourd’hui à lui seul le tiers de l’ensemble des nouveaux cas de cancer chez la femme.

Si la survie des patients s’est améliorée, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, chaque année, plusieurs milliers d’entre elles décèdent encore de la maladie. Dans un tel contexte, la connaissance des facteurs de risque et, en particulier, de ceux sur lesquels il est possible d’agir, est extrêmement importante.

On sait aujourd’hui que la consommation d’alcool, le surpoids et l’obésité ou encore la sédentarité accroissent le risque de développer la maladie. Mais un autre facteur de risque est peut-être moins connu du public : le fait de ne pas avoir allaité au cours de sa vie. L’allaitement confère, en effet, un certain niveau de protection contre le cancer du sein.

Les scientifiques ont commencé à élucider les mécanismes qui en sont à l’origine. Voici ce qu’il faut en savoir.

Le cancer du sein, une incidence élevée en France

En France, le nombre de nouveaux cas de cancer du sein diagnostiqués chaque année a progressé de 0,3 % par an entre 2010 et 2023.

En 2023, 61 214 femmes se sont vues annoncer le triste diagnostic, tandis que 12 600 ont été emportées par la maladie. L’incidence de la maladie est particulièrement élevée dans notre pays, où l’on compte 99,2 cas pour 100 000 femmes. Selon les dernières données de Globocan (Global Cancer Observatory/Organisation mondiale de la santé), la France se situe en quatrième position en Europe derrière la Belgique, les Pays-Bas et le Luxembourg, et devant le Royaume-Uni, l’Italie, l’Allemagne et l’Espagne.

Point positif : entre 2011 et 2021, la mortalité due au cancer du sein a reculé de 1,3 % par an. Bien que la survie des patientes ait progressé au fil des ans, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, le cancer du sein reste le cancer féminin le plus fréquent ainsi que la première cause de mortalité par cancer chez la femme.

Le cancer du sein est néanmoins un cancer de bon pronostic. Entre 2005 et 2010, la survie nette à cinq ans était de 88 % (et de 76 % à dix ans). Afin de détecter précocement la maladie et d’en réduire la mortalité, un programme national de dépistage est organisé depuis 2004.

Comment est dépisté le cancer du sein en France ?

  • À partir de l’âge de 50 ans et tous les deux ans (en l’absence de symptômes et de risque élevé), un courrier de l’Assurance maladie est adressé à chaque femme éligible l’invitant à réaliser un dépistage du cancer du sein.
  • Le dépistage consiste en un examen clinique des seins (examen réalisé directement sur la patiente) et d’une mammographie (examen radiologique). Dans certaines situations, une échographie des seins est également nécessaire pour compléter la mammographie.
  • À partir de l’âge de 25 ans, un examen clinique (observation et palpation) des seins est recommandé au moins une fois par an, quel que soit votre niveau de risque. Il peut être réalisé par un médecin généraliste, un gynécologue ou une sage-femme.

Dans ce cadre, toutes les femmes âgées de 50 ans à 74 ans se voient proposer un dépistage pris en charge à 100 %, tous les deux ans. Cependant, en 2023, seuls 48,2 % des femmes éligibles à ce programme avaient été dépistées. Seuls 60 % des cancers du sein étaient détectés à un stade précoce.

En parallèle du dépistage, il est donc également important d’agir sur les facteurs de risque de cancer du sein susceptible d’être modifiés. Selon le Centre international de recherche sur le cancer (CIRC), 37 % de l’ensemble des nouveaux cas de cancers seraient attribuables à des facteurs de risque modifiables, qu’ils soient comportementaux ou environnementaux. Parmi ceux-ci figurent non seulement la consommation d’alcool, le surpoids et l’obésité, la sédentarité ou le fait de fumer, mais aussi, dans le cas du cancer du sein, le fait de ne pas avoir allaité.

Effet protecteur de l’allaitement

L’effet protecteur de l’allaitement augmente avec la durée cumulée de l’allaitement, qui correspond à la durée d’allaitement d’une femme pour tous ses enfants.

Pour chaque douze mois cumulés d’allaitement, la réduction du risque de cancer du sein est estimée à 4,3 %. Cet effet protecteur s’ajoute à la protection associée à la parité (c’est-à-dire la réduction du risque de cancer du sein directement liée au fait d’avoir eu un enfant).

Dans ce contexte, une femme qui a deux enfants et qui nourrit chaque enfant au sein pendant douze mois aura une diminution de risque de cancer du sein de 8,6 %. Une femme qui a eu trois enfants et les a allaités chacun pendant cinq mois, soit un l’allaitement total de quinze mois, verra le risque de développer un cancer du sein diminuer de 6 %.

Recommandations sur l’allaitement

En France, les données de l’Agence nationale de santé publique montre que le taux d’allaitement diminue avec le temps. Si, en 2021, le taux d’initiation à l’allaitement maternel était de 77 %, à l’âge de 2 mois seuls 54,2 % des enfants étaient encore allaités. À 6 mois, cette proportion tombe à 34 % des enfants encore allaités (dont 29 % tout en ayant commencé une diversification alimentaire). À 12 mois, seuls 18 % des enfants étaient encore allaités.

Cette situation contraste avec certains pays d’Europe, où le taux d’allaitement est nettement plus élevé. Ainsi, en Norvège, 98 % des enfants sont allaités à la naissance, 71 % des enfants sont encore allaités à l’âge de 6 mois et 35 % à 12 mois. En Suisse, 95 % des enfants sont allaités à la naissance, 52 % des enfants sont encore allaités à 6 mois et 20 % à 12 mois.

Comment l’allaitement peut-il diminuer le risque de cancer du sein ?

Divers travaux de recherche ont tenté d’éclaircir les mécanismes de protection. En l’état actuel des connaissances, il semblerait que l’allaitement joue un rôle protecteur contre le cancer du sein de plusieurs façons.

Lors de l’allaitement, la structure du sein se modifie, ce qui augmente la différenciation de l’épithélium mammaire et rend les cellules moins sensibles à la transformation maligne. Par ailleurs, l’allaitement retarde la reprise des cycles ovulaires après la grossesse et réduit le taux d’œstrogènes dans le sein, ce qui se traduit par une plus faible exposition du tissu mammaire aux hormones. Or, les hormones jouent un rôle important dans le risque de cancer du sein, car elles modulent la structure et la croissance des cellules épithéliales tumorales.

Enfin, au cours de la lactation, on constate une exfoliation plus importante du tissu mammaire (décrochage de cellules), ce qui pourrait entraîner une élimination de cellules du tissu canalaire mammaire potentiellement porteuses de lésions de l’ADN risquant de dégénérer en cancer.

Soulignons que le fait de tirer son lait confère également un certain niveau de protection, similaire à l’allaitement direct.

De multiples bénéfices pour la mère et l’enfant

Au-delà de la diminution du risque de cancer du sein, l’allaitement maternel présente également d’autres avantages majeurs pour la mère et l’enfant.

Pour la mère, l’allaitement maternel permettra de retrouver le poids d’avant la grossesse et de réduire la prise de poids à long terme. Les femmes d’âge moyen qui ont allaité sont moins susceptibles d’être en surpoids ou obèses.

Pour l’enfant, le lait maternel est le meilleur aliment pendant les six premiers mois de la vie. Il protège contre maladies infectieuses dès le plus jeune âge, principalement la diarrhée et les infections des voies respiratoires inférieures. Cette protection est due à la présence dans le lait maternel de plusieurs composés antimicrobiens, anti-inflammatoires et modulateurs de l’immunité ainsi que de modulateurs de croissance.

Enfin, des effets sur le développement cognitif de l’enfant ainsi que sur la croissance et la protection contre les maladies chroniques telles que l’asthme et l’obésité ont aussi été évoqués par certains travaux de recherche.

En cas de difficulté d’allaitement, que faire ?

De nombreuses mères rencontrent des difficultés d’allaitement, en général temporaires. Il s’agit principalement de crevasses, d’une perception de lait insuffisant, d’engorgements ou de douleurs.

Si ces difficultés persistent, un soutien professionnel adéquat peut être proposé. Il inclut la consultation d’une sage-femme ou d’une consultante en lactation, et peut être fourni par des maternités, des centres de protection maternelle et infantile (PMI), ou par l’intermédiaire d’associations comme l’Association française de consultants en lactation.

Dans certains cas, lorsque les difficultés pour allaiter persistent ou que des causes médicales sont impliquées, il est possible de recourir à des laits infantiles de qualité, sous la supervision d’un professionnel de santé, ou encore à des dons de lait maternel.

La protection conférée par l’allaitement est d’autant plus importante que les mois d’allaitement cumulés sont nombreux, mais soulignons que toute durée d’allaitement aura un effet protecteur.


Pour aller plus loin :

The Conversation

Isabelle Romieu a reçu des subventions de l’Institut national du cancer (INCA) et du « World cancer research fund » (WCRF) pour des travaux de recherche épidémiologique sur les facteurs de risques de cancer du sein.

PDF

29.10.2025 à 14:00

Le crime organisé est la première entreprise du Brésil et la menace la plus grave qui pèse sur le pays

Robert Muggah, Richard von Weizsäcker Fellow na Bosch Academy e Co-fundador, Instituto Igarapé

Le 28 octobre 2025, Rio a vécu l’opération policière la plus sanglante de son histoire contre les narcotrafiquants. Mais alors que le crime organisé s’est imposé comme une puissance économique au Brésil, les démonstrations de force ne règlent rien.
Texte intégral (1692 mots)

Le raid policier, mené le 28 octobre 2025, contre des narcotrafiquants dans les favelas de Rio de Janeiro est le plus meurtrier qu’ait connu la ville. Mais face à l’empire que le crime organisé a constitué au Brésil, les interventions spectaculaires ne suffisent plus : l’État doit inventer une réponse nationale.


Le 28 octobre, à Rio de Janeiro, des véhicules blindés de la police ont pénétré dans les complexes d’Alemão et de Penha pour interpeller des chefs de gangs. Des fusillades ont éclaté, des routes ont été bloquées, des bus ont été détournés, des écoles et des campus ont été fermés, et des drones ont largué des explosifs sur les forces de l’ordre. Le soir venu, l’État confirmait que « l’opération Contenção » s’était soldée par 124 morts, dont quatre policiers. Ce fut la confrontation la plus sanglante jamais enregistrée dans l’histoire de la ville.

L’économie criminelle du Brésil est sortie des ruelles pour investir désormais les salles de réunion, figurer dans les bilans financiers et s’infiltrer dans des chaînes d’approvisionnement essentielles. Au cours de la dernière décennie, le crime organisé brésilien s’est étendu à l’ensemble du pays et même à d’autres continents. Les plus grandes organisations de trafic de drogue, comme le Primeiro Comando da Capital (PCC) et le Comando Vermelho (CV), se trouvent au cœur de véritables réseaux franchisés. Les « milices » de Rio – groupes paramilitaires principalement composés de policiers et de pompiers ayant quitté leurs anciennes fonctions ou, pour certains, les exerçant toujours – monétisent le contrôle qu’elles exercent sur le territoire en se faisant payer pour des « services » de protection, de transport, de construction et autres services essentiels.

À mesure que ces groupes se sont professionnalisés, ils ont diversifié leurs activités, qui vont aujourd’hui du trafic de cocaïne à la contrebande d’or, aux paiements numériques et aux services publics. Lorsque les groupes armés du Brésil se disputent les marchés illicites, la violence peut atteindre des niveaux comparables à ceux de zones de guerre.

Rien n’illustre mieux le nouveau modèle économique que le commerce illégal de carburants. Comme je l’ai écrit dans The Conversation fin août, les autorités ont effectué environ 350 perquisitions dans huit États dans le cadre de l’opération Carbone Caché, qui visait à faire la lumière sur le blanchiment présumé de sommes colossales à travers des importations de dérivés du pétrole et un réseau de plus d’un millier de stations-service. Entre 2020 et 2024, environ 52 milliards de réaux (8,3 milliards d’euros) de flux suspects ont transité par des fintechs, dont l’une fonctionnait en tant que banque parallèle. Des fonds fermés auraient investi dans des usines d’éthanol, des flottes de camions et un terminal portuaire, donnant aux profits illicites un vernis de respectabilité.

Sur les marchés financiers, les investisseurs sont à présent conscients des dangers. Ces derniers mois, les fonds d’investissement ont enfin commencé à considérer l’infiltration criminelle comme un risque matériel, et les analystes cherchent plus qu’auparavant à déterminer quelles chaînes logistiques, quelles institutions de paiement et quels fournisseurs régionaux pourraient être exposés.

Gouvernance criminelle

Les équipes de sécurité des entreprises cartographient l’extorsion et le contrôle des milices avec la même attention que celle qu’elles accordent aux menaces cyber.

La réaction du marché aux opérations menées en août par la police dans le cadre de l’opération « Carbone Caché » a rappelé que le crime organisé ne génère pas seulement de la violence : il fausse la concurrence, pénalise les entreprises respectueuses des règles et impose une taxe cachée aux consommateurs. Il n’est donc pas surprenant qu’en septembre, le ministre des finances Fernando Haddad ait annoncé la création d’une nouvelle unité policière dédiée à la lutte contre les crimes financiers.

La « gouvernance criminelle » s’est propagée des prisons aux centres financiers. Dans leurs fiefs de Rio, les gangs et les milices opèrent comme des bandits traditionnels, contrôlant le territoire et les chaînes d’approvisionnement logistique. Pendant ce temps, des franchises du PCC et du CV sont apparues à l’intérieur des terres et en Amazonie, cherchant à engranger des profits plus élevés grâce à la contrebande d’or et de bois, ainsi qu’au transport fluvial illégal de marchandises.

Ces factions opèrent désormais au-delà des frontières, du pays en lien avec des organisations criminelles de Colombie, du Pérou et du Venezuela.

Les outils de contrôle n’ont pas suivi l’évolution du crime

Le bilan humain reste accablant, même si les chiffres nationaux agrégés se sont améliorés. En 2024, le Brésil a enregistré 44 127 morts violentes intentionnelles, son niveau le plus bas depuis 2012, mais cela représente encore plus de 120 homicides par jour. La géographie de l’intimidation s’est étendue : une enquête commandée par le Forum brésilien de la sécurité publique a révélé que 19 % des Brésiliens – soit environ 28,5 millions de personnes – vivent aujourd’hui dans des quartiers où la présence de gangs ou de milices est manifeste, soit une hausse de cinq points en un an.

Les outils de contrôle de l’État n’ont pas suivi l’évolution du modèle économique du crime organisé. Les incursions spectaculaires et les occupations temporaires font les gros titres et entraînent de nombreuses morts, mais perturbent peu le marché. Les polices des États, depuis longtemps considérées comme les plus létales du monde, démantèlent rarement les groupes criminels.

Les politiques étatiques et municipales sont elles aussi devenues de plus en plus vulnérables : le financement des campagnes, les contrats de travaux publics et les licences sont désormais des canaux investis par le pouvoir criminel. L’opération fédérale d’août a constitué une rare exception et a apporté la preuve de l’efficacité d’une répression visant l’argent du crime, et non seulement les porte-flingues.

Si les législateurs brésiliens sont sérieux, ils doivent traiter le crime organisé comme une défaillance du marché national et réagir à l’échelle nationale. Cela commence par placer le gouvernement fédéral à la tête de forces spéciales interinstitutionnelles permanentes réunissant police fédérale, procureur général, administration fiscale, cellules de renseignement financier, régulateurs du carburant et du marché, ainsi que Banque centrale.

Il faut davantage de condamnations

Ces équipes devront disposer d’un mandat clair pour agir au-delà des frontières des États et accomplir quatre tâches simples : suivre en temps réel les paiements à risque ; publier une liste fiable des propriétaires réels des entreprises qui contrôlent le carburant, les ports et d’autres actifs stratégiques ; connecter les données fiscales, douanières, de concurrence et de marchés afin qu’un signal d’alerte dans un domaine déclenche des vérifications dans les autres ; et se tourner vers des tribunaux au fonctionnement accéléré pour rapidement geler et saisir l’argent sale.

Les incitations doivent être modifiées afin que la police et les procureurs soient récompensés pour les condamnations et les saisies d’actifs, et non pour le nombre de morts. Et là où des groupes criminels ont pris le contrôle de services essentiels, comme les transports ou les services publics, ceux-ci doivent être placés sous contrôle fédéral temporaire et faire l’objet d’appels d’offres transparents et étroitement surveillés afin d’être, au final, remis à des opérateurs légaux.

Le Brésil a déjà prouvé qu’il pouvait mener de grandes opérations aux effets dévastateurs contre le crime. Le véritable défi est désormais de faire en sorte que le travail ordinaire de la loi – enquêtes, constitution de dossiers solides… – soit plus décisif que les interventions spectaculaires. Faute de quoi, il ne faudra pas longtemps pour qu’une grande ville brésilienne ne soit complètement paralysée.

The Conversation

Robert Muggah est affilié à l’Institut Igarapé et à SecDev.

PDF

29.10.2025 à 12:04

Combien de temps un moustique peut-il survivre sans piquer un humain ?

Claudio Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours

Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
Texte intégral (809 mots)

La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.


À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.

Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.

Moustiques mâles vs moustiques femelles

Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.

Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.

Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.

La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.

Combien de temps une femelle peut survivre sans piquer ?

Une femelle moustique peut survivre plusieurs jours voire quelques semaines sans piquer pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.

La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies, telles que la fièvre du Nil occidental ou l’encéphalite japonaise.

Influence de l’environnement

La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.

Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette forme de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.

The Conversation

Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP "REPEL".

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓