LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

29.04.2026 à 16:31

À Paris, les oiseaux continuent de chanter plus aigu à cause du bruit, malgré la lutte contre la pollution sonore

Dan Mennill, Professor and Associate Dean of Science, University of Windsor

Paris a perdu trois décibels en dix ans, grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige toujours les oiseaux à chanter plus haut.
Texte intégral (2422 mots)
Les bruits des voitures, des avions, des bateaux et des activités industrielles dans les zones urbaines produisent un bruit de fond constant qui affecte les oiseaux, comme cette mésange charbonnière. Wikimedia Commons, CC BY-SA

Paris a perdu trois décibels en dix ans grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige encore et toujours les oiseaux à chanter plus haut.


En 1962, la biologiste Rachel Carson nous mettait en garde dans le Printemps silencieux. Cet ouvrage, devenu depuis une référence majeure, alertait sur le monde muet et sans oiseau qui nous guettait du fait de l’impact incontrôlé des activités humaines.

Quarante ans plus tard, des biologistes ont mis en évidence un effet frappant de la pollution sonore sur le chant des oiseaux. Ils ont découvert que les bruits à basse fréquence de la circulation obligeaient les oiseaux à chanter à des fréquences plus élevées dans les villes européennes. Ainsi, les oiseaux d’un parc bruyant situé au pied de la tour Eiffel chantent à une fréquence supérieure de 400 hertz (Hz) à celle de leurs congénères vivant dans les forêts calmes de la banlieue parisienne.

L’étude que j’ai publiée dans la revue scientifique Ornithological Applications avec mon collègue Hans Slabbekoorn de l’Université de Leyde, montre cependant que Paris est un exemple de réussite dans la lutte contre la pollution sonore.

Pourtant, même si Paris est devenu plus calme, les oiseaux n’ont pas retrouvé leurs tonalités de chant naturelles. Nos recherches montrent que les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que les oiseaux des zones sauvages situées en dehors de la ville.

Chant de mésange charbonnière. Chantal Dengis, CC BY72,5 ko (download)

Il parait donc essentiel de redoubler d’efforts en matière de réduction du bruit dans les zones urbaines du monde entier afin de permettre aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

Les effets dévastateurs du bruit

De fait, les activités humaines inondent le monde des divers bruits. Les bruits des voitures, des avions, des bateaux et des activités industrielles produisent ainsi un grondement constant qui affecte les animaux sauvages, les oiseaux et les insectes. Nous négligeons souvent la pollution sonore en tant que problème de conservation, alors qu’elle peut avoir des effets dévastateurs sur la faune sauvage à une époque d’urbanisation croissante.

Le bruit de la circulation perturbe par exemple la capacité des oiseaux et des grenouilles à attirer des partenaires. Le bruit des bateaux entraîne lui une diminution de la communication vocale chez les baleines. Enfin, le bruit de la circulation influence par exemple les interactions prédateur-proie entre les papillons de nuit et les chauves-souris.

Depuis que l’on a découvert que, dans les villes européennes, les bruits de circulation à basse fréquence poussaient les oiseaux à chanter à des fréquences plus élevées, ce phénomène a également été observé chez diverses populations d’oiseaux à travers le monde.

Dans les prairies canadiennes, les bruants des prés émettent ainsi des chants plus aigus à proximité des pompes à pétrole bruyantes. Les rouges-gorges familiers chantent eux des mélodies plus aiguës en présence du bruit des éoliennes. On sait également que les zostérops à dos gris d’Australie produisent des chants et des cris plus aigus dans les zones urbaines bruyantes par rapport aux zones rurales.

Or, tous ces changements réduisent la capacité des oiseaux à défendre leurs territoires de reproduction et à attirer des partenaires.


À lire aussi : Préserver les océans du bruit humain pour mieux les protéger


Se battre pour une ville plus calme

Paris est l’une des plus grandes et des plus densément peuplées d’Europe, mais les Parisiens ont mis au point des stratégies innovantes pour lutter contre la pollution sonore.

La ville a transformé de nombreuses voies de circulation en pistes cyclables et a posé des revêtements antibruit sur les axes routiers principaux.

Une boîte noire fixée à un lampadaire, sur laquelle figure l’image d’un oiseau. La circulation est floue en arrière-plan
Un radar sonore. Dan Mennill

Des radars sonores infligent également des amendes aux véhicules trop bruyants. Un observatoire régional appelé Bruitparif surveille enfin le bruit dans toute la ville et supervise les efforts de réduction du bruit.

Toutes ces actions visent à rendre la ville plus calme, tant pour les habitants que pour la faune. Ces efforts contre le bruit soulèvent cependant la question suivante : peut-on réduire le niveau de pollution sonore afin de minimiser son impact sur le chant des oiseaux ?

Un frein au vacarme

En 2023, je me suis rendu à Paris pour enregistrer le chant de la mésange charbonnière, un oiseau commun des jardins européens.

J’ai utilisé des microphones et des enregistreurs numériques pour enregistrer les oiseaux dans les rues, sur les places et dans les parcs de toute la ville. J’ai suivi les traces de mon collaborateur, Hans Slabbekoorn, le biologiste qui avait été le premier à enregistrer les mésanges charbonnières à Paris en 2003.

Le chercheur se tient debout, un gros micro noir à la main, avec la Tour Eiffel en arrière-plan
Dan Mennill utilise un micro pour enregistrer le chant des oiseaux près de la tour Eiffel. Dan Mennill

En comparant le bruit de fond au chant des oiseaux, nous avons constaté que les mésanges charbonnières émettaient des chants plus aigus dans les environnements bruyants. En chantant à un ton plus aigu, elles évitent ainsi que leur chant ne soit masqué par les bruits de circulation à basse fréquence.

Nous avons également analysé les données sur le bruit recueillies dans tout Paris par Bruitparif. Nous avons ainsi constaté que Paris est en passe de gagner la bataille contre la pollution sonore et que la ville est devenue plus calme ces dernières années.

En effet, Paris est aujourd’hui environ trois décibels plus calme qu’il y a dix ans. Comme l’échelle des décibels est logarithmique, une baisse de trois décibels représente une réduction importante de l’intensité sonore. Mais malgré ces progrès, les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que celles des oiseaux vivant dans les zones sauvages en dehors de la ville.

Les oiseaux peuvent changer de chant

Il y a toutefois des raisons d’être optimiste. Des recherches menées dans d’autres villes ont montré que lorsque l’environnement devient moins bruyant, les oiseaux retrouvent leur tonalité naturelle.

Ainsi, le calme observé dans les rues pendant les confinements liés au Covid-19 a offert une occasion rare d’étudier les oiseaux dans un monde plus silencieux. Des biologistes de San Francisco (Californie) ont comme cela constaté que le paysage sonore urbain était devenu environ sept décibels plus silencieux pendant les confinements – des niveaux rarement observés depuis les années 1950.

Ce calme ambiant a permis aux oiseaux de modifier leur chant. À San Francisco, les bruants à couronne blanche ont réagi en chantant des mélodies plus graves et plus douces.

De nombreuses espèces d’oiseaux ont ainsi tiré profit de cet apaisement qui a régné pendant la période de confinement. Dans le cadre d’une étude portant sur 47 espèces d’oiseaux chanteurs en Amérique du Nord, notre équipe de recherche a constaté que les espèces dont le chant couvre une large gamme de fréquences – c’est-à-dire les sons les moins sensibles aux effets du bruit à basse fréquence – ont étendu leur aire de répartition pendant cette période de calme.

Ces résultats montrent que la pollution sonore affecte diverses espèces d’oiseaux, même celles dont le chant semble pourtant bien adapté aux environnements bruyants.

À l’écoute du futur

Nos études menées à Paris montrent qu’une réduction de trois décibels n’est pas suffisante pour permettre aux oiseaux de retrouver leurs fréquences de chant naturelles. Des efforts supplémentaires de réduction du bruit seront donc nécessaires pour que nous puissions partager l’espace sonore de manière adéquate avec nos amis à plumes.

Paris nous offre également une leçon porteuse d’espoir dans la lutte contre la pollution sonore. Les villes peuvent réduire le bruit en encourageant le vélo et les modes de transport plus silencieux. Les politiques publiques jouent également un rôle important, comme l’illustre l’agence Bruitparif à Paris.

Si nous mesurons la pollution sonore, nous pouvons nous efforcer de la réduire, d’améliorer notre propre bien-être et de créer un espace permettant aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

The Conversation

Dan Mennill a reçu des financements de la Natural Sciences and Engineering Research Council of Canada

PDF

29.04.2026 à 16:30

Diagnostic préimplantatoire et anomalies chromosomiques : les enjeux scientifiques et éthiques du DPI-A

Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord

Marjolaine Willems, Généticienne clinique, Université de Montpellier

Le dépistage préimplantatoire permet de détecter des anomalies chromosomiques dans le cadre de l’assistance médicale à la procréation. En France, son emploi est très encadré, mais certains appellent à des évolutions.
Texte intégral (3130 mots)

En France, contrairement à d’autres pays, les conditions d’utilisation du diagnostic préimplantatoire sont très encadrées. Il ne peut pas être utilisé en tant que dépistage génétique global, et doit cibler uniquement un risque connu. Une situation que certains aimeraient voir évoluer.


Si l’infertilité constitue aujourd’hui la principale raison du recours à l’assistance médicale à la procréation (AMP), elle n’est pas la seule. Dans certains cas, ces techniques sont mobilisées pour éviter la transmission à l’enfant de maladies génétiques particulièrement graves.

Pour les familles concernées, l’enjeu dépasse alors la simple conception : il s’agit de donner naissance à un enfant indemne de la pathologie identifiée chez au moins l’un des parents. Dans ce contexte, le diagnostic préimplantatoire (DPI), qui permet l’analyse du patrimoine génétique d’embryons issus d’une fécondation in vitro avant leur transfert dans l’utérus – est autorisé en France depuis 1999.

Le DPI ne concerne donc qu’un nombre limité de personnes. Selon l’Agence de la biomédecine, environ 1 000 demandes de DPI sont examinées chaque année, dont environ les deux tiers sont acceptées. Pour autant, il cristallise des questions scientifiques, éthiques et politiques majeures, d’autant plus vives que les cadres juridiques et les pratiques diffèrent sensiblement d’un pays à l’autre.

Le DPI en France : un usage strictement encadré

Le DPI consiste à analyser de une à quelques cellules prélevées sur l’embryon afin de rechercher une anomalie génétique. Réalisé simultanément sur plusieurs embryons obtenus au cours d’un même cycle de fécondation, il permet d’exclure du transfert dans l’utérus les embryons porteurs de ladite anomalie.

En France, le DPI est autorisé lorsqu’une anomalie responsable d’une maladie gravement invalidante, susceptible d’être à révélation tardive ou pouvant mettre prématurément en jeu le pronostic vital a été préalablement et précisément identifiée, chez l’un des parents ou l’un de ses ascendants immédiats.

La loi impose toutefois une restriction majeure quant à la finalité du test : le diagnostic ne peut avoir d’autre objet que la recherche de l’anomalie génétique préalablement identifiée, ainsi que l’identification des moyens de la prévenir ou de la traiter. Le DPI ne constitue donc en aucun cas un dépistage génétique général : il s’agit d’un test ciblé visant un risque connu.

Ce cadre juridique traduit une conception médicale du DPI : il s’agit d’une alternative à une interruption médicale de grossesse lorsque le risque de maladie est élevé. Ainsi, le dispositif est pris en charge par l’Assurance-maladie dans la limite de quatre cycles de FIV. En raison de la haute technicité exigée et d’une volonté de centralisation, seuls cinq centres spécialisés disposent d’un agrément : Paris, Strasbourg, Montpellier, Nantes et Grenoble.

Les termes de la loi française expliquent également les limites technologiques constatées dans notre pays. En France, étant donné que seule la recherche de la pathologie faisant l’objet du diagnostic est autorisée, le recours aux méthodes de séquençage modernes, dites « pangénomiques » (car elles permettent de séquencer l’intégralité du génome) demeure marginal.

Il en va autrement à l’étranger, où de telles techniques sont largement utilisées.

À l’étranger : le développement du dépistage des anomalies chromosomiques

Dans plusieurs pays, notamment aux États-Unis, au Royaume-Uni ou en Espagne, les progrès du séquençage génétique ont conduit à un usage différent du diagnostic préimplantatoire. Celui-ci est utilisé pour le dépistage général des anomalies chromosomiques chez l’embryon.

Ce type de DPI est appelé DPI-A, pour aneuploïdies. Les aneuploïdies sont des anomalies du nombre de chromosomes, telles que les trisomies ou les monosomies (parmi les exemples d’aneuploïdie les plus connus figure la trisomie 21, qui se caractérise par la présence d’un chromosome surnuméraire pour la 21e paire de chromosomes).

Le DPI-A ne consiste donc plus – ou plus uniquement – à rechercher une maladie génétique familiale identifiée. Il implique l’examen de l’ensemble des chromosomes des embryons produits par fécondation in vitro avant de les transférer dans l’utérus, afin de repérer ceux qui présentent un nombre chromosomique normal. Ces embryons sont supposés présenter de meilleures chances d’implantation et de naissance vivante.

À l’étranger, cette technique est largement proposée dans certaines cliniques, notamment dans le secteur privé, parfois au-delà des indications médicales strictes. Dans certains pays d’Europe, aux États-Unis ou encore au Canada, où le DPI-A est présenté comme un facteur d’accroissement des chances de réussite, il est utilisé dans une part importante des cycles de FIV.

Pourquoi, en France, cette pratique est-elle interdite ?

Cette situation s’explique par la volonté de limiter toute extension du diagnostic vers une sélection embryonnaire élargie, laquelle est perçue comme susceptible d’ouvrir la voie à des dérives eugéniques.

Certaines instances éthiques françaises ont cependant récemment contribué à relancer le débat, en recommandant d’évaluer l’intérêt médical de ces techniques dans un cadre strictement encadré.

Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), dans son avis 129 de 2017, était favorable à l’autorisation de la recherche d’aneuploïdies, au cours des fécondations in vitro, pour les couples ayant recours au DPI et certains couples infertiles.

Pour l’Agence de la biomédecine, il convient également de s’interroger sur les conséquences de la possibilité du séquençage de l’ensemble du génome, y compris en matière de diagnostic prénatal.

Malheureusement, à l’heure actuelle, les données nécessaires pour fonder une décision manquent encore.

Le DPI-A : un bénéfice scientifique encore débattu

Le DPI-A repose sur une hypothèse biologiquement cohérente : les anomalies chromosomiques étant fréquentes chez les embryons humains (à hauteur de 30 à 60 % des embryons systématiquement étudiés au cours d’un diagnostic préimplantatoire, leur identification pourrait théoriquement améliorer les résultats de la FIV, diminuer le risque d’échec d’implantation, de fausse couche, d’interruption médicale de grossesse ou de naissance d’enfant atteint d’une maladie génétique grave.

Toutefois, les données scientifiques apparaissent moins convaincantes qu’attendu au regard des bénéfices escomptés.

Rappelons qu’un cycle de FIV correspond à une tentative complète, incluant stimulation ovarienne, ponction ovocytaire et transfert d’embryon(s), plusieurs transferts pouvant être issus d’un même cycle. En France, le taux de naissance vivante est d’environ 25 % par cycle initié. En pratique, les patientes réalisent en moyenne deux à trois cycles pour obtenir une naissance vivante, les chances augmentant de manière cumulative avec le nombre de tentatives. La distinction entre taux par transfert et taux par cycle initié est essentielle, le bénéfice observé du DPI-A portant principalement sur le premier indicateur.

Concrètement, lors d’une fécondation in vitro (FIV), plusieurs ovocytes sont fécondés en laboratoire afin d’obtenir un nombre limité d’embryons (souvent entre cinq et dix). Sans DPI-A, un ou plusieurs embryons sont sélectionnés sur des critères morphologiques et transférés, les autres pouvant être congelés. Avec DPI-A, chaque embryon est biopsié et seuls ceux considérés comme euploïdes (présentant le bon nombre de chromosomes) sont retenus pour le transfert.

Cette sélection entraîne de facto une diminution du nombre d’embryons disponibles. Les données issues de cohortes de FIV montrent qu’en moyenne 30 à 60 % des embryons au stade blastocyste (cinq à six jours de développement) sont aneuploïdes, proportion qui augmente avec l’âge maternel. Par exemple, chez une patiente obtenant huit blastocystes, le DPI-A peut conduire à n’identifier que deux à trois embryons euploïdes, voire aucun selon l’âge, réduisant d’autant les possibilités de transfert.

L’exclusion systématique des embryons mosaïques, c’est-à-dire comportant à la fois des cellules euploïdes et aneuploïdes, peut accentuer cette réduction, alors même que des naissances vivantes d’enfants sains sont rapportées après transfert de tels embryons.

Les conséquences de cette sélection sont multiples : diminution du nombre de transferts possibles par cycle, augmentation du nombre de cycles nécessaires pour obtenir une grossesse, et risque de perte d’embryons potentiellement viables.

Les études réalisées montrent dans de larges proportions une augmentation des taux de grossesse par transfert embryonnaire dans certains contextes, comme les échecs d’implantation ou les fausses couches à répétition.

Cependant, il ne semble pas en être systématiquement de même pour le taux de naissances vivantes par cycle initié, qui constitue pourtant l’indicateur le plus pertinent pour les couples. Le DPI-A pourrait même conduire à un taux de naissance diminué chez les femmes de moins de 40 ans.

Comment s’expliquent ces résultats ?

Plusieurs limites biologiques expliquent ces résultats contrastés. La biopsie embryonnaire repose sur l’analyse d’un nombre restreint de cellules, ce qui peut conduire à des erreurs d’interprétation du fait d’un problème de représentativité.

En présence de mosaïcisme embryonnaire, autrement dit lorsque l’embryon contient à la fois des cellules normales et des cellules aneuploïdes, les cellules prélevées pour être analysées peuvent ne pas refléter la constitution chromosomique de l’ensemble de l’embryon, conduisant à des résultats discordants ou à des erreurs de classification.

En outre, il existe parfois une capacité d’auto-correction. Ce phénomène constitue un facteur majeur de limites du DPI-A. Par ailleurs, la variabilité des conditions de prélèvement et les limites analytiques des techniques de séquençage peuvent contribuer à des faux positifs ou faux négatifs, notamment dans la détection du mosaïcisme.

Enfin, toutes les fausses couches ne sont pas liées à des anomalies chromosomiques, ce qui limite mécaniquement l’impact potentiel du dépistage de l’aneuploïdie sur les taux de naissance vivante.

Au regard de ces incertitudes, les sociétés savantes internationales, en particulier européenne (EHRE) et américaine, restent prudentes et ne recommandent pas l’utilisation systématique du DPI-A en pratique clinique courante pour tous les couples ayant recours à la FIV. Il pourrait exister un bénéfice pour certains sous-groupes de patientes, notamment les plus âgées, ou celles qui ont subi plusieurs fausses couches spontanées.

Les limites actuelles des connaissances soulignent la nécessité d’études rigoureuses, incluant également les aspects médico-économiques, afin d’évaluer l’intérêt réel du DPI-A selon les différentes populations de patientes et les contextes cliniques. En effet, la réalisation d’un DPI-A double le coût d’une FIV classique.

Pour combler ces lacunes, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avait autorisé en 2021 l’Assistance publique – Hôpitaux de Paris (AP-HP) à mettre en œuvre un essai clinique (essai DEVIT) afin de collecter des données sur ces questions. L’objectif de cette étude était d’en évaluer les bénéfices et les risques.

Mais le 7 février 2024, le tribunal administratif de Montreuil (tribunal administratif de Montreuil, 8e chambre, 7 février 2024, no 2206833) saisi par la fondation conservatrice Jérôme-Lejeune, a annulé l’autorisation de l’ANSM, en rappelant l’interdiction légale du DPI-A, y compris au stade de la recherche.

Par une décision du 10 juillet 2025, la Cour administrative d’appel de Paris a confirmé la décision du tribunal administratif.

L’étude est donc interrompue, alors que l’évaluation objective des bénéfices et des risques nécessite précisément des travaux méthodologiquement solides.

Le DPI-A : un débat français particulièrement polarisé

En France, la question du DPI-A suscite un débat particulièrement clivé.

Certaines associations de patients, comme le collectif BAMP !, dénoncent une incohérence : le dépistage de la trisomie 21 est largement proposé pendant la grossesse, avec la possibilité d’une interruption médicale en cas d’anomalie, alors que le dépistage avant implantation reste interdit.

Le risque d’eugénisme n’est-il pas moindre lorsqu’il s’agit de sélectionner des embryons viables que dans la systématisation d’une proposition de détection d’une trisomie 21 chez le fœtus, quelques mois après le début de la grossesse ?

Cette situation crée de fait des inégalités d’accès, puisque seuls les couples disposant des ressources financières nécessaires ont le choix de se rendre à l’étranger.

À l’inverse, des opposants, comme la Fondation Jérôme-Lejeune, considèrent que l’extension du DPI vers le dépistage chromosomique pourrait renforcer une logique de sélection embryonnaire et poserait des questions éthiques majeures, notamment vis-à-vis du handicap.

Replacer la science au cœur de la discussion

Dans ce contexte, le débat ne se laisse pas aisément réduire à une opposition entre une évaluation scientifique supposée neutre et des prises de position liées à des considérations éthiques et sociétales.

Les données scientifiques disponibles concernant le DPI-A restent en effet discutées : si certaines études suggèrent un bénéfice dans des indications ciblées (échecs répétés d’implantation, fausses couches à répétition), d’autres soulignent l’absence d’amélioration significative des taux de naissances vivantes pour l’ensemble des patients ayant recours à l’AMP, ainsi que les limites liées au mosaïcisme embryonnaire, à la représentativité de la biopsie et à la variabilité des pratiques.

L’évaluation scientifique elle-même est donc marquée par des incertitudes, des choix méthodologiques et des interprétations divergentes.

Parallèlement, le recours au DPI-A soulève des enjeux qui dépassent le seul champ biomédical, notamment en matière de représentation du handicap, de sélection embryonnaire, d’équité d’accès aux soins et de finalités assignées à la médecine reproductive. Ces dimensions relèvent de choix collectifs et de cadres éthiques, qui ne peuvent être tranchés par les seules données scientifiques.

L’absence de cadre légal pour la recherche sur le DPI-A en France a paradoxalement freiné la production de données scientifiques nationales, comme le montre la décision du tribunal administratif de Montreuil.

La France ne conçoit l’évolution des techniques biomédicales autorisées que dans le respect des grands principes relatifs au corps humain, tels qu’inscrits dans le Code civil aux articles 16 et suivants, à l’exclusion de toute considération commerciale.

L’histoire du DPI illustre la tension permanente entre progrès biomédical, attentes des patients et préoccupations éthiques. Le DPI-A cristallise aujourd’hui des espoirs importants d’amélioration des résultats de la FIV, mais aussi des inquiétudes quant à ses implications sociétales.

Dans ce contexte, l’enjeu est peut-être moins de trancher immédiatement « pour » ou « contre » que de consolider les connaissances disponibles. Dépassionner le débat, mieux informer le public, soutenir la recherche et expliciter les incertitudes apparaissent comme des conditions essentielles pour orienter les décisions futures en matière de santé publique.

Dans un domaine marqué par la rapidité des innovations et l’ampleur des enjeux éthiques, la qualité des données scientifiques doit jouer un rôle déterminant dans la manière dont notre société définit et définira les choix collectifs à venir.

The Conversation

Marjolaine Willems est membre de la Société Française de Diagnostic Préimplantatoire (SFDPI). Elle a reçu des financements de l'Agence de Biomédecine.

Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 16:29

Philanthropy is reshaping global health. Here’s how

Annabelle Littoz-Monnet, Professor in International Relations, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Could philanthropists be dominating global health metrics, governance, and outcomes?
Texte intégral (1452 mots)

Over the past two decades, global health has undergone a profound transformation. As public funding for international health and development has become increasingly unpredictable, private philanthropy has largely stepped in to fund global programmes.

It is well known that large foundations, such as the Gates Foundation, Bloomberg Philanthropies, or the Chan Zuckerberg Initiative, to list a few, now largely contribute to the budgets of the World Health Organization (WHO), a number of public-private partnerships, or initiate private initiatives.

What is less visible though is the way philanthropic organisations are increasingly producing the data, research, and knowledge infrastructures through which global health problems are known, prioritised and eventually governed. This shift is often presented as pragmatic, in the face of constrained budgets and an urgent global health crisis. Yet the expanding epistemic presence of philanthropic actors in global health is interrogating, when it shapes the very frameworks though which health issues are understood.

When philanthropic foundations produce global health data

Philanthropic foundations have, in recent years, widely invested in the production of metrics on the “burden” of specific health conditions and the “costs” and “returns” of given health interventions.

These metrics, while necessary, do not only describe reality, but define what counts as a health problem and what kinds of interventions are deemed valuable.

In 2007, the Gates Foundation (formerly known as the Bill & Melinda Gates Foundation) created the Institute of Health Metrics and Evaluation (IHME) to provide “timely, relevant, and scientifically valid evidence to improve health policy and practice” (IHME website).

Since its establishment, the IHME’s has been calculating the so-called Global Burden of Disease (GBD) metrics.

The GBD is the largest-scale project ever set up aimed at measuring morbidity and mortality rates throughout the globe using the metric of DALYs (Disability Adjusted Life Years).

The IHME, which has benefited from generous funding from the Gates Foundation, produces profuse metrics and estimates, calculations, and projections, which nowadays deeply shape the way health problems are being known, compared, and governed.

Although the WHO initially attempted to equal the IHME as a provider of health metrics, the IHME has now reached a position of dominance in global health. The WHO itself now increasingly relies on those numbers for its own sense-making and agenda-setting exercises.

Other “data” initiatives have since then further stabilised the strong presence of philanthropists in global health. In 2015, Bloomberg Philanthropies, for instance, launched its own Data for Health initiative, also co-funded with the Australian government and the Gates Foundation, to “strengthen and standardise birth and death records and to better inform policymaking and improve public health outcomes”.

Vital Strategies, which describes itself as a global health non-profit organisation, entirely funded by Bloomberg Philanthropies, acts as the implementing partner of Data for Health. In that capacity, Vital Strategies supports the WHO in its risk monitoring work. As their resources often surpass those of the WHO, philanthropists’ data centers have come to sit at the core of global infrastructures of quantification, providing data and metrics to the WHO and supporting it in its own monitoring work.

It is on the basis of those estimates that philanthropic organisations themselves and global health actors at large produce calculations to identify which health interventions could “save the most lives” and be most cost-effective. Interventions considered to be “best buys” and funding priorities have, thus, been identified on the basis of such metrics.

Effects on global health governance

GBD results have highlighted that diseases like malaria, HIV, and later non-communicable diseases (NCDs) account for a massive “burden” of DALYS.

Such numbers have helped, for instance, scale-up interventions for malaria and HIV treatment. The distribution of hundreds of millions of insecticide-treated nets has become a flagship intervention to solve malaria, with quantifiable impact, supported by the Gates Foundation but also global health actors at large. As philanthropic foundations increasingly partner with the WHO and other global health actors, they can, indeed, effectively translate this evidence in identifiable targets which all global health actors try to reach.

While supporting such interventions is in itself laudable, what is questioning is that this calculative logic introduced a particular way of valuing health interventions, toward an approach in which ‘results’ must be continuously and quantitatively evidenced. This logic has favoured, first, a move toward population-based interventions, which alone can be shown to be producing significant and measurable results. This approach implies that problems are seen mainly in terms of their magnitude and that interventions need to have “scalability” and “reach population impact”. Such interventions enable funders to calculate impact and returns on investment in a standardised way.

Second, this approach also favours highly technical interventions, rather than complex, structural interventions, as it is easier to produce evidence on their impact and the economic returns they generate.

With regard to the treatment of high blood pressure, for instance, anti-hypertensive therapy has been privileged. While philanthropists and the WHO also promote interventions that target salt intake and trans-fat in food, these tend to be less central and fashioned by philanthropists as more complex, because population-based impact measurements are unavailable. The identification of hypertensive therapy as a most effective intervention was largely identified through the funding of modelling scenarios and projections by Bloomberg Philanthropies, which has largely invested in the field to find out which hypothetical interventions would bring the best returns.

The involvement of philanthropists has therefore contributed to reinforcing a solutionist approach to health, where “quick fixes” are favoured, while factors relating to socioeconomic and environmental conditions problems are too often ignored.

Understanding this shift is crucial. It reveals that as private resources are called in to fill existing funding gaps, such a move is not neutral but deeply political.

Although the prevention of diseases is in itself a laudable objective for improving public health, what is interrogating is how the knowledge produced by these philanthropic actors, largely rooted in for-profit strategies and logics, is instrumental in making health conditions known, treated, and governed.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Annabelle Littoz-Monnet a reçu des financements du Fonds National Suisse de la recherche Scientifique (FNS).

PDF

29.04.2026 à 09:31

Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices

Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)

Pendant longtemps on a pensé qu’une séquence d’ADN ne pouvait être que régulatrice ou codante. Pourtant, une nouvelle étude montre que certaines d’entre elles ont ces deux rôles.
Texte intégral (1303 mots)

Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.

Épissage d’un pré-ARN messager : excision des introns et suture des exons. Fdardel/Wikimédia, CC BY

Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.

Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.

Comment avons-nous répondu à cette question ?

Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.

Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.

Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.

Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.

Pourquoi est-ce important ?

Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.

L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.

Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.

Quelles suites donner à ce projet ?

Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.

Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.

The Conversation

Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.

PDF

29.04.2026 à 09:31

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Mark Smith, Research Fellow in Collider Physics, Faculty of Natural Sciences, Imperial College London

Une anomalie observée dans la désintégration de mésons B pourrait être le premier signe d’une physique encore inconnue.
Texte intégral (1696 mots)
Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le Grand Collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au Grand Collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Masques à lumière rouge : que dit la science de leur efficacité ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech ». Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?
Texte intégral (1823 mots)

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech », portée par les influenceurs et rendue accessible au travers de dispositifs à domicile. Elle est associée à des effets séduisants tels que réduction des signes de l’âge, amélioration de l’acné ou encore accélération de la cicatrisation. Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?


Les dispositifs de thérapie à la lumière rouge destinés au grand public se présentent le plus souvent sous la forme de masques faciaux rigides ou souples, conçus pour épouser les contours du visage. Leur prix varie d’une centaine à environ mille euros. Ils intègrent un ensemble de diodes électroluminescentes (LED) disposées sur leur face interne, émettant une lumière visible rouge, parfois associée à du proche infrarouge. L’utilisateur porte ce masque pendant une durée déterminée (généralement quelques minutes), afin d’exposer uniformément la peau à cette lumière. D’autres formats existent également, tels que des panneaux lumineux ou des dispositifs portatifs ciblant des zones spécifiques du corps, mais le masque facial constitue aujourd’hui la forme la plus emblématique.

Cet intérêt croissant pour la thérapie à la lumière rouge repose sur plusieurs facteurs complémentaires. D’une part, les avancées technologiques ont permis la miniaturisation de systèmes LED, rendant possible leur utilisation hors des cabinets médicaux. Dans ces derniers, la lumière rouge est utilisée notamment en dermatologie, où elle est employée pour le traitement de l’acné, des plaies, des ulcères et des cicatrices. D’autre part, ces dispositifs sont souvent présentés comme des solutions non invasives, ce qui contribue à leur accessibilité et à leur adoption par le grand public. Enfin, les réseaux sociaux participent à leur visibilité, en diffusant des retours d’expérience et des contenus d’usage, qui s’ajoutent aux publications scientifiques et aux communications commerciales existantes.

Commençons par préciser ce que l’on appelle thérapie à la lumière rouge. Aussi appelée photobiomodulation, elle repose sur l’utilisation de longueurs d’onde spécifiques, généralement comprises entre 630 et 660 nm, parfois étendues au proche infrarouge (environ 800–900 nm). Ces longueurs d’onde peuvent pénétrer dans la peau jusqu’au derme sans provoquer d’échauffement significatif ou de dommages comparables aux UV.

Quels sont les effets biologiques de la photobiomodulation ?

Au niveau biologique, la photobiomodulation serait liée à plusieurs mécanismes cellulaires encore en cours d’étude. Le mécanisme principal évoqué dans les travaux repose sur une interaction avec les mitochondries (petites structures cellulaires qui produisent l’énergie – sous forme d’une molécule appelée adénosine triphosphate : ATP – à partir des nutriments et de l’oxygène), en particulier avec l’enzyme cytochrome c oxydase, un acteur clé de la chaîne respiratoire. Plusieurs travaux suggèrent que cette enzyme agit comme un chromophore capable d’absorber la lumière rouge, entraînant des modifications de son état redox (gain ou perte d’électrons) et une stimulation du métabolisme, notamment via une augmentation de la production d’ATP et l’activation de voies de signalisation intracellulaires.

Ces processus s’accompagnent de plusieurs effets biologiques principalement observés in vitro et dans des modèles animaux. Une augmentation de la production d’ATP a notamment été mesurée après exposition à ces longueurs d’onde. Par ailleurs, la lumière semble moduler le stress oxydatif, c’est-à-dire le déséquilibre entre la production de molécules réactives de l’oxygène et les systèmes de défense antioxydants de la cellule. Ce déséquilibre est susceptible d’endommager les lipides, protéines et l’ADN lorsqu’il est excessif, mais peut aussi jouer un rôle de signal biologique à faible niveau. Ce processus implique notamment une production contrôlée d’espèces réactives de l’oxygène (ROS) et de monoxyde d’azote, deux molécules impliquées dans les voies de signalisation cellulaire. Enfin, ces signaux biochimiques activent des cascades intracellulaires (kinases, facteurs de transcription) favorisant des processus de réparation et de régénération tissulaire.

Des effets modestes

Ces mécanismes restent encore débattus, notamment concernant le rôle exact du cytochrome c oxydase, dont l’implication directe n’est pas unanimement démontrée. Malgré ces incertitudes mécanistiques, la photobiomodulation a été largement étudiée sur le plan clinique, avec des résultats globalement positifs mais variables selon les indications.

Dans le cas du vieillissement cutané, plusieurs essais rapportent une légère amélioration des rides fines, de la texture et de l’élasticité de la peau après plusieurs semaines de traitement. Ces effets seraient liés à la stimulation des fibroblastes (cellules de base des tissus conjonctifs) et à l’augmentation de la production de collagène. Une revue souligne que les effets observés sont réels mais hétérogènes et encore mal standardisés.

Concernant la cicatrisation, les données suggèrent un potentiel effet, mais les preuves restent encore incomplètes et parfois contradictoires. La lumière rouge pourrait intervenir dans les différentes phases de la réparation tissulaire (inflammation, prolifération et remodelage) en stimulant l’activité de cellules clés comme les fibroblastes et les macrophages (cellules du système immunitaire). Elle favoriserait ainsi la production de collagène, la migration cellulaire et possiblement l’angiogenèse (formation de nouveaux vaisseaux sanguins à partir de vaisseaux existants), contribuant à la reconstruction du tissu lésé. Cependant, les données cliniques sont hétérogènes : certaines études montrent une accélération de la cicatrisation, tandis que d’autres ne retrouvent pas d’effet significatif.

Enfin, dans le traitement de l’acné, la lumière rouge agit principalement par des effets anti-inflammatoires et une modulation de l’activité des glandes sébacées (situées dans la peau et impliquées dans la synthèse et sécrétion du sébum). Les études rapportent une diminution des lésions inflammatoires et des rougeurs, avec des résultats globalement modérés et variables selon les protocoles. Elle est souvent plus efficace lorsqu’elle est combinée à d’autres thérapies lumineuses.

Un niveau de preuve limité

Malgré des résultats encourageants dans plusieurs domaines, la photobiomodulation reste une discipline en développement, dont le niveau de preuve est limité par plusieurs facteurs méthodologiques. De nombreuses études reposent sur des effectifs réduits, ce qui limite la robustesse statistique et la généralisation des résultats. Par ailleurs, l’hétérogénéité des protocoles expérimentaux (durée d’exposition, intensité lumineuse, fréquence des traitements) complique la comparaison entre études et peut expliquer certaines divergences observées.

Ces limites méthodologiques contrastent avec la diffusion rapide de dispositifs grand public (masques LED, panneaux, appareils portatifs), aux performances variables et peu standardisées. L’écart entre les conditions expérimentales (paramètres contrôlés, doses précises, suivi médical) et l’usage domestique peut conduire à une surestimation des effets, parfois amplifiée par des discours commerciaux optimistes.

En résumé, la photobiomodulation repose sur des mécanismes biologiques plausibles et des résultats expérimentaux et cliniques encore partiellement concordants. Le niveau de preuve reste à ce jour modéré, en raison notamment du nombre limité d’essais randomisés contrôlés de grande ampleur et de l’hétérogénéité des protocoles. Les données disponibles suggèrent des effets potentiels dans plusieurs indications dermatologiques, mais leur amplitude et leur reproductibilité varient selon les conditions d’utilisation. Cette technologie s’inscrit ainsi dans un champ de recherche en structuration, nécessitant des études complémentaires standardisées afin de préciser ses indications et ses paramètres optimaux.

Dans ce contexte, des effets indésirables restent rares mais possibles, principalement sous forme d’irritations cutanées transitoires ou d’inconfort oculaire en cas de mauvaise utilisation. Les données actuelles ne mettent pas en évidence de toxicité majeure aux paramètres utilisés en photobiomodulation, mais les effets d’un usage prolongé ou non encadré restent encore insuffisamment documentés. Certaines situations peuvent également nécessiter des précautions particulières, notamment chez les personnes présentant une sensibilité accrue à la lumière ou des pathologies dermatologiques spécifiques.

L’utilisation de dispositifs commerciaux de lumière rouge doit donc être envisagée avec prudence, en particulier en dehors d’un cadre médical. Il est recommandé de solliciter un avis médical ou dermatologique en cas d’usage à visée thérapeutique. Par ailleurs, les dispositifs disponibles sur le marché présentent une qualité variable : il convient de vérifier des paramètres tels que la longueur d’onde (généralement 630–660 nm pour le rouge), la puissance d’émission, ainsi que la présence de certifications de sécurité.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
12 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓