10.04.2025 à 17:10
Flore Gubert, Directrice de recherche, Institut de recherche pour le développement (IRD)
Alice Mesnard, Professeur d’économie, City St George's, University of London
L’une des conséquences les plus dévastatrices de la suspension de l’Agence des États-Unis pour le développement international (USAID) décidée par l’administration Trump est l’interruption du travail du programme international « Enquêtes démographiques et de santé », qui, depuis son lancement il y a quarante ans, fournit des données extrêmement détaillées sur la situation sanitaire et l’évolution démographique de près de 90 pays en développement.
En décidant, fin janvier 2025, de la suspension pour quatre-vingt-dix jours de l’activité de l’USAID (United States Agency for International Development), l’administration Trump a mis un coup d’arrêt à de nombreux programmes d’aide humanitaire et au développement dans le monde.
Publié la semaine dernière, un article de blog du Center for Global Development (CGDev) – un centre de réflexion indépendant sur le développement international, basé à Washington, D. C. – propose une première estimation de l’ampleur des réductions budgétaires en cours. Fondée sur des documents ayant fuité et auxquels les deux auteurs de l’article ont pu accéder, cette analyse montre que les coupes budgétaires sont loin de ne concerner que les domaines dans le collimateur du président nouvellement réélu, tels que les droits des femmes et le climat.
Qu’ils soient consacrés à la lutte contre la faim et la malnutrition, à la lutte contre les maladies infectieuses (VIH/sida, tuberculose, paludisme, etc.), à la prévention des conflits et à l’aide humanitaire, au développement économique, à la promotion des droits de l’homme et de la démocratie ou à tout autre secteur, la plupart des programmes ont vu leurs financements fortement se réduire, voire s’interrompre, du jour au lendemain.
D’après cette même étude, les réductions les plus importantes en termes de montants frappent de loin l’aide destinée à l’Ukraine (-1,43 milliard de dollars), suivie par celle allouée à l’Éthiopie (-387 millions de dollars) et à la République démocratique du Congo (-387 millions de dollars), trois pays ravagés par des conflits depuis plusieurs années et dont les populations sont fortement dépendantes de l’aide humanitaire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
S’il est encore trop tôt pour évaluer l’impact du gel de l’aide américaine, les associations sur le terrain s’attendent à des conséquences désastreuses, voire mortelles, pour des millions de personnes.
L’une des autres conséquences du coup porté à l’USAID est la mise à l’arrêt du programme DHS (Demographic and Health Surveys, ou EDS, Enquêtes démographiques et de santé en français) dont l’agence d’aide américaine a été à l’initiative et qu’elle finance en grande partie depuis son démarrage.
Lancé en 1984, le programme DHS a permis de réaliser plus de 450 enquêtes dans quelque 90 pays en développement pour fournir des données fiables, comparables et régulièrement mises à jour sur la santé, la population, la fécondité, la planification familiale, la mortalité infantile et maternelle, la nutrition, etc.
Comme le montre la figure ci-dessous, extraite d’un article publié dans le Bulletin of the World Health Organisation, le questionnaire a été progressivement étoffé au cours du temps, avec notamment l’apparition de questions sur les violences conjugales en 1990, l’ajout d’un module sur les attitudes vis-à-vis des femmes en 1995, etc. Depuis le milieu des années 1990, des biomarqueurs sont également collectés auprès des personnes enquêtées pour réaliser différents tests de dépistage (VIH, paludisme, tuberculose, hépatites virales, glycémie, etc.).
L’objectif de l’USAID en créant ce programme était d’abord de doter les pays en développement d’un outil statistique leur permettant de planifier, de suivre et d’évaluer les politiques publiques dans le domaine de la santé, notamment en matière de santé reproductive et de lutte contre les maladies infectieuses comme le VIH/sida. Il était également de renforcer la capacité technique des pays en matière de collecte et d’analyse de données.
Cette double ambition a été indiscutablement atteinte : il suffit d’ouvrir n’importe quel document officiel émanant d’un ministère de la santé en Afrique, en Asie du Sud ou du Sud-Est, en Amérique latine, au Moyen-Orient et dans certaines régions d’Europe de l’Est pour constater que les enquêtes DHS y sont systématiquement mobilisées pour dresser un état des lieux de la situation sanitaire à partir d’indicateurs clés, pour identifier et prioriser les segments de population ainsi que les territoires où les besoins en santé sont les plus critiques, ou encore pour suivre les progrès réalisés à la suite de la mise en œuvre de stratégies de santé publique.
À cet égard, on peut considérer que ces enquêtes sont vecteur de changement. Comme le documente la plateforme Data Impacts, l’impact des données DHS sur la reconnaissance du problème de l’excision a, par exemple, été crucial pour que des pays comme l’Égypte prennent conscience de la prévalence élevée de cette pratique et adoptent des lois pour la prohiber. Dans un autre domaine, celui du VIH, les données DHS sur la vulnérabilité des jeunes femmes ont incité des pays comme le Kenya à lancer des programmes d’éducation sur les maladies sexuellement transmissibles.
La mise à l’arrêt du programme DHS a d’abord eu pour conséquence d’interrompre toutes les enquêtes en cours (voir la page du programme DHS dédiée aux opérations de collecte en cours) et le report sine die de celles qui étaient sur le point d’être lancées. Si cette situation devait perdurer, cela signifierait la perte d’une boussole et d’un baromètre des résultats de l’action publique en santé dans de nombreux pays dont les instituts de statistiques n’ont pas les moyens de mettre en place ce type d’enquêtes.
Cela entraînerait également une discontinuité dans la série historique des données relatives à la santé des populations. Or, c’est la régularité avec laquelle le programme DHS collecte ces données, en permettant d’identifier et de comparer les tendances de long terme en matière de fécondité, de mortalité, de nutrition, de prévalence des maladies infectieuses, d’accès aux soins et de bien d’autres domaines encore, tant à l’intérieur des pays qu’aux niveaux régional et international, qui fait la force de ce dispositif.
Une autre conséquence immédiate de la mise à l’arrêt du programme est l’indisponibilité de son site web, qui permet d’accéder au bien public mondial que représente l’ensemble des données issues des quelque 450 enquêtes DHS déjà réalisées.
Depuis début février, un bandeau apparaît sur la page d’accueil du site informant tous les visiteurs :
« En raison de l’examen en cours des programmes d’aide à l’étranger des États-Unis, le programme DHS est actuellement en pause. Nous ne sommes pas en mesure de répondre aux demandes de données ou autres pour le moment. Nous vous demandons de faire preuve de patience. »
Aucune nouvelle inscription ou demande d’accès aux données n’est donc traitée depuis maintenant deux mois. Les chercheurs souhaitant se lancer dans de nouvelles recherches à partir de ces données sont contraints de les remettre à plus tard, voire d’y renoncer. Nul doute que cela aura un impact significatif sur la production de connaissances scientifiques que ces données autorisent.
Enfin, si l’interruption du programme devait se prolonger, elle annulerait tous les progrès réalisés pour cibler efficacement et évaluer les politiques et les projets de développement financés par l’aide publique multilatérale et bilatérale. Or, à l’heure où les gouvernements des pays riches réduisent massivement leurs efforts au titre de la solidarité internationale en raison de contraintes budgétaires de plus en plus strictes, il est impératif que l’aide soit bien ciblée et efficace.
Quand les donateurs, qu’ils soient publics ou privés, avaient accès aux données fournies par le programme DHS, ils avaient tendance à répartir leur soutien conformément aux priorités qui apparaissaient à l’analyse de ces données ; désormais, puisqu’ils ne disposeront plus de cet outil essentiel, il est très probable que, plus encore qu’auparavant, ces donateurs se focaliseront exclusivement sur leurs agendas, lesquels varient selon les crises du moment. On l’a vu ces dernières années, ces derniers se sont successivement focalisés, en réaction aux grandes crises, sur la lutte contre le paludisme, l’aide aux migrants, la réponse au Covid-19 ou encore le soutien aux réfugiés ukrainiens.
Tout comme prévenir coûte moins cher que guérir, l’absence de continuité, de vision globale et intégrée, et de suivi systématique des grands objectifs d’une aide au développement centrée sur le développement humain ne manquera pas d’aggraver les chocs sanitaires et humanitaires à venir.
Flore Gubert est directrice adjointe de l'Institut Convergences Migrations et membre de l'Union Européenne des Economistes du Développement (EUDN).
Alice Mesnard est membre de l'Institut Convergences Migrations et de l Union Europeenne des Economistes du Developpement. Elle declare n'avoir aucun interet financier dans une institution pouvant tirer profit de cet article.
10.04.2025 à 17:10
Jules Rodrigues, Professeur d'espagnol, docteur en civilisation espagnole contemporaine, Université de Lille
Le 29 octobre 2024, une violente dépression a frappé la région de Valence, provoquant des pluies torrentielles, d’importants dégâts matériels et un terrible bilan humain (près de 240 morts). Face à l’impuissance des pouvoirs publics et des services civils, l’armée espagnole a été appelée à la rescousse pour aider à retrouver les disparus, à déblayer et à reconstruire. Retour sur le fonctionnement de l’armée en Espagne et sur le rôle qui lui est dévolu dans la gestion des crises survenant sur le territoire national.
L’armée espagnole s’organise sur la base de l’article 8 de la Constitution de 1978, qui dispose que les Forces armées constituées de l’armée de Terre, de la Marine et de l’armée de l’Air, sont les garantes de l’ordre constitutionnel.
Le roi est le chef suprême des armées (art. 62.h.), mais le commandement effectif est confié au président du gouvernement (Pedro Sanchez depuis 2018) et, par délégation de pouvoir, à la ministre de la Défense (Margarita Robles depuis 2018), secondée par un chef d’état-major de la Défense (JEMAD), fonction à la fois politique et militaire, faisant le lien entre la chaîne de commandement militaire et la hiérarchie politique.
Le cadre juridique de l’armée espagnole est profondément réformé dans les années 2000. La Loi organique 5/2005 sur la Défense nationale sert de fondement à cette modernisation. Suivent en 2006 une loi sur les hommes du rang (Ley de Tropa y Marinería), en 2007 une loi sur la carrière militaire (Ley de Carrera Militar) et en 2011 un nouveau code éthique des Forces armées (les Reales Ordenanzas). En bref, l’armée espagnole s’adapte aux enjeux spécifiques du XXIe siècle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En 2024, l’armée espagnole est professionnelle, le service militaire obligatoire ayant été suspendu au 1er janvier 2002. La loi sur la carrière militaire et celle sur les hommes du rang précisent les conditions de recrutement. La loi prévoit entre 130 et 140 000 militaires professionnels en service actif, dont 50 000 cadres de commandement (à partir du grade de sous-officier).
Or l’armée espagnole peine à recruter. Alors que le second gouvernement Aznar (2000-2004) avait envisagé de recruter 120 000 soldats (hors cadre de commandement), la réalité de l’attractivité des emplois militaires a obligé les gouvernements successifs à revoir à la baisse les possibilités de recrutement qui depuis, se situent approximativement à entre 79 et 86 000 hommes du rang.
Pour autant, l’armée espagnole s’intègre pleinement aux structures internationales de défense et de sécurité. L’Espagne obtient l’adhésion à l’OTAN en mai 1982 malgré l’opposition de la gauche socialiste – qui s’empresse de la geler dès son arrivée au pouvoir dans l’attente de la tenue d’un référendum sur la permanence de l’Espagne dans l’organisation. Organisé le 12 mars 1986, le référendum donne une large victoire au oui. Ce vote stipule également que l’Espagne reste à l’écart de la structure militaire intégrée, qu’elle ne rejoindra que discrètement en 1999, sous le premier gouvernement Aznar.
Par la suite, l’Espagne obtiendra son intégration à l’Union de l’Europe occidentale (UEO) et participera à plusieurs forces militaires créées durant les années 1990, dont l’Eurocorps, qu’elle rejoint en 1994.
Depuis, elle participe régulièrement aux entraînements des forces de l’OTAN et à diverses opérations internationales sous l’égide l’ONU, de l’OTAN et de l’Union européenne ; on n’a pas oublié, non plus, sa participation à la « coalition des volontaires » mise sur pied par George W. Bush en 2003 pour renverser le régime de Saddam Hussein en Irak.
À l’initiative du premier ministre José Luis Rodríguez Zapatero (2004-2011), une nouvelle unité est créée en 2006, deux ans après les graves incendies de l’été 2004, à l’intérieur de ces Forces armées : l’Unité militaire d’Urgences (Unidad Militar de Emergencias).
L’article 15.3 de la loi de défense nationale de 2005 dispose que « les Forces armées, aux côtés de l’État et des Administrations publiques, doivent préserver la sécurité et le bien-être des citoyens dans les cas de risque grave, de catastrophe, de calamité ou autres nécessités publiques, en accord avec ce qu’établit la législation en vigueur ».
Comme une force expéditionnaire, l’UME dispose de cinq bataillons d’intervention répartis sur le territoire péninsulaire : le centre de commandement, le quartier général et le 1er bataillon sont basés à Madrid ; le 2e bataillon, basé à Séville, intervient aux Canaries ; le 3e est basé à Valence ; le 4e à Saragosse et le 5e à León.
Créée à la suite des incendies de l’été 2004, l’unité a pour mission de lutter contre tout type de catastrophes naturelles. Mais l’examen de ses statistiques montre qu’elle intervient surtout contre les incendies de forêt – le plus souvent volontaires – à hauteur de 71 %, contre seulement 10 % pour les inondations.
Un nombre inhabituellement élevé de militaires et de matériels a été mobilisé pour répondre aux inondations liées à l’épisode de la depresión aislada en niveles altos (DANA) à Valence les 29 et 30 octobre dernier.
Il faut préciser à cet égard que l’UME n’intervient pas de manière automatique sur le territoire national. Elle ne peut intervenir qu’en cas de situation d’urgence dite « situation opérationnelle 2 », quand les moyens régionaux ne sont plus suffisants pour contenir la catastrophe en cours. Seul le gouvernement régional peut avertir la délégation du gouvernement central en région qui, à son tour, prévient le ministère de l’Intérieur en charge de valider le recours à l’UME. Du ministère de l’Intérieur, la demande d’intervention passe au ministère de la Défense, qui activera l’unité et définira les moyens nécessaires.
L’armée n’a donc été activée qu’au cas par cas ; on comprend dès lors pourquoi elle a pu intervenir dans certains villages de la région de Valence plutôt que dans d’autres, alors même que la situation qui y prévalait requérait également son intervention.
Le 2 novembre dernier, le journal valencien Levante précisait que ce recours aux Forces armées n’était du ressort que du gouvernement central et se faisait l’écho du mécontentement aussi bien de la population civile, qui se sentait abandonnée, que de certains militaires qui disaient leur impuissance face à une activation qui tardait à arriver.
Le général Francisco Javier Marcos, commandant de l’UME, a pour sa part rappelé, lors d’une conférence de presse quelques jours plus tard, la responsabilité du gouvernement régional dans la demande d’activation de l’unité militaire pour permettre son intervention dans les villages sinistrés.
Plusieurs mois après la catastrophe, et après avoir rejeté la responsabilité sur le gouvernement de Madrid, sur l’armée et sur l’Agence espagnole de météorologie (AEMET), le président du gouvernement autonome de Valence, Carlos Mazón (Parti populaire), ne parvient pas à se dédouaner des responsabilités qui pèsent sur lui quant à la gestion de l’alerte, la prévention et l’évacuation des zones à risque.
Jules Rodrigues ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 17:09
Mathilde Touvier, Directrice de l'Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Inserm
Marie Payen de la Garanderie, Etudiante en doctorat en épidémiologie nutritionnelle, Université Sorbonne Paris Nord
En forte progression partout dans le monde, le diabète de type 2 – qui représente plus de 92 % des cas de diabète en France – survient généralement après 40 ans. Il est dû à une baisse de sensibilité cellulaire à l’insuline, l’hormone du pancréas qui facilite l’entrée du glucose dans les cellules. Si, dans notre pays, l’augmentation de l’incidence de cette maladie peut en partie s’expliquer par le vieillissement de la population, l’évolution des modes de vie, notamment le manque d’activité physique et les modifications en matière d’alimentation, semble aussi jouer un rôle.
En matière d’alimentation, de nouveaux résultats de recherche suggèrent un lien entre certains additifs présents dans les aliments industriels et l’augmentation du risque de diabète de type 2. Mathilde Touvier, qui dirige l’équipe de recherche en épidémiologie nutritionnelle (CRESS-EREN, Inserm/Inrae/Cnam/Université Sorbonne Paris Nord/Université Paris Cité), a encadré ces travaux, conduits par sa doctorante Marie Payen de la Garanderie. Elles nous disent ce qu’il faut en retenir.
The Conversation : Pourquoi avoir étudié les effets des mélanges d’additifs sur la santé ?
Mathilde Touvier : Historiquement, les additifs alimentaires sont évalués par l’Autorité européenne de sécurité des aliments (EFSA) de façon individuelle.
Cependant, dans la vie quotidienne, les aliments contiennent un grand nombre d’additifs : dans un soda « sans sucre », on peut trouver non seulement de l’aspartame (et/ou de l’acésulfame K, le sel de potassium de l’acésulfame, au pouvoir sucrant 100 à 200 fois plus élevé que le sucre), mais aussi de l’acide citrique, du colorant caramel au sulfite d’ammonium, etc. En outre, les combinaisons d’aliments et de boissons fréquemment consommés ensemble contribuent au fait que nous ingérons régulièrement des mélanges d’additifs.
Or, on sait que lorsque des substances chimiques se retrouvent mélangées, leurs effets peuvent être différents de ce qu’ils sont lorsqu’elles sont prises séparément. Les interactions qui se produisent au sein du « cocktail » de produits chimiques peuvent en effet engendrer des synergies (l’effet des substances concernées se renforce) ou des antagonismes (leurs effets sont annulés ou diminués). Ce qui peut avoir des conséquences pour la santé qui ne sont pas détectables lorsque les substances sont testées seules.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans le cadre de ces travaux, nous avons identifié les principaux mélanges d’additifs auxquels sont exposés les participants de la cohorte française NutriNet-Santé (plus de 100 000 adultes), puis nous avons évalué les associations entre les expositions à ces mélanges et la santé. La première étude que nous publions ici porte sur le diabète de type 2. Les analyses sont en cours sur d’autres pathologies (cancers, maladies cardiovasculaires, hypertension artérielle…).
T. C. : Certains de vos précédents travaux s’appuyaient déjà sur la cohorte NutriNet-Santé ?
M. T. : Oui. Cette recherche s’inscrit dans le contexte du grand projet « Additives », qui a reçu une bourse du Conseil européen de la recherche (European Research Council, ERC) et de l’Institut national du cancer (Inca).
Dans ce cadre, nous avions notamment déjà mis en évidence un lien entre certains émulsifiants (des additifs alimentaires destinés à obtenir certaines textures dans les aliments industriels et à permettre la stabilité des mélanges obtenus dans le temps) et un risque accru de maladies cardiovasculaires, de certains cancers et de diabète de type 2. Nous avions également montré des liens entre consommation d’édulcorants (comme l’aspartame ou l’acésulfame K) et incidence plus élevée de maladies cardiovasculaires, de cancers et de diabète.
À lire aussi : Les émulsifiants, des additifs alimentaires qui pourraient être associés à un risque de cancer
Nous nous appuyons pour cela sur la cohorte NutriNet-Santé, une étude de santé publique coordonnée par l’EREN-CRESS (équipe de recherche en épidémiologie nutritionnelle,Inserm/Inrae/Cnam/Université Sorbonne Paris Nord/Université Paris Cité). Lancée en 2009, elle implique plus de 180 000 « nutrinautes », des consommateurs qui acceptent de remplir des questionnaires détaillés sur leurs habitudes alimentaires et leur santé. Dans ces travaux en particulier, les données de plus de 100 000 nutrinautes ont été analysées.
En croisant ces informations avec celles contenues dans les bases de données de composition des aliments (Open Food Fact ou Oqali, par exemple), nous sommes pour la première fois en mesure d’explorer les effets potentiels des mélanges d’additifs sur la santé.
Nous avons aussi évalué les doses auxquelles sont soumis les consommateurs, en effectuant des dosages ou en nous basant sur ceux effectués par le magazine Que Choisir, notamment, ainsi que sur des données quantitatives fournies par l’EFSA.
De cette façon, nous avons pu déterminer les expositions à plusieurs centaines d’additifs différents et observer quels sont les mélanges les plus représentés dans l’alimentation. Nous avons ensuite étudié les liens entre l’exposition à ces mélanges et l’incidence du diabète de type 2.
T. C. : Quels résultats avez-vous obtenus ?
M. T. : Nous avons identifié cinq mélanges d’additifs auxquels ces consommateurs français étaient particulièrement exposés. Nous avons considéré tous les additifs consommés par au moins 5 % des participants. Au final, nous avons intégré un peu plus de 70 additifs dans nos modèles de mélanges. Sur ces cinq mélanges, nous avons observé que deux d’entre eux étaient associés à une incidence plus élevée de diabète de type 2.
Le premier mélange concerné est plutôt caractéristique des produits ultratransformés de type bouillons, desserts lactés, sauces industrielles… Il contient des additifs tels que des émulsifiants (carraghénanes E407, amidons modifiés E14xx, gommes de guar E412 ou gommes xanthanes E415, polyphosphates E452, pectine E440…), ainsi qu’un conservateur (sorbate de potassium E202) et un colorant (curcumine R100).
Le second mélange associé au diabète de type 2 était caractéristique des boissons industrielles. Il contenait des correcteurs d’acidité (acide citrique E330, citrate de sodium E331, acide malique E296, acide phosphorique E338), des colorants (caramel au sulfite d’ammonium E150d, anthocyanes E163, extrait de paprika E160c), des émulsifiants (gomme arabique E414, pectine E440, gomme de guar E412) et un agent d’enrobage (cire de carnauba E903) et les trois édulcorants principaux que l’on trouve sur le marché français (aspartame E951, acésulfame potassium E950 et sucralose E955).
T. C. : Comment avez-vous procédé pour déterminer l’augmentation du risque de diabète de type 2 ?
Marie Payen de la Garanderie : Nous avons commencé par calculer un « score d’adéquation au mélange » pour chacun des cocktails testés. Plus les consommateurs avaient un score élevé, plus ils étaient consommateurs. On parle ici d’un continuum d’exposition : à un bout du spectre, certains participants qui consomment peu d’aliments ultratransformés ont un score proche de zéro, tandis qu’à l’autre bout, les plus gros consommateurs ont un score d’adéquation élevé.
Puis nous avons effectué des analyses statistiques pour calculer l’augmentation de risque de diabète associée à un score donné. C’est un peu compliqué, car le calcul fait appel à la notion statistique d’écart-type. Mais nous avons mis en évidence que plus la consommation des deux mélanges cités précédemment était importante, plus le risque de développer un diabète de type 2 augmentait sur la période d’enquête (sur l’ensemble des participants, 1 131 personnes ont développé la maladie).
Pour le premier mélange, nos calculs révèlent que le risque de diabète était 8 % plus élevé pour chaque augmentation d’un écart-type du score. Pour le deuxième mélange, le risque augmentait de 13 % pour chaque écart-type du score. Ces résultats suggèrent donc potentiel sur-risque de diabète chez les consommateurs les plus fortement exposés.
Bien entendu, tous nos modèles ont tenu compte des autres caractéristiques des participants : apports en sucre, graisses saturées, calories, fibres… activités physiques, tabagisme, antécédents familiaux de diabète. Les associations entre les mélanges d’additifs et le risque de diabète étaient examinées « toutes choses égales par ailleurs ».
T. C. : Ces travaux sont cohérents avec les résultats de vos recherches précédentes…
M. P. G. : Nous avions déjà mis en évidence l’existence de liens entre consommation de différents additifs (émulsifiants, édulcorants, etc.) et risque plus élevé de cancer, de maladies cardiovasculaires et de diabète dans l’étude NutriNet-Santé. Toutefois, dans ces précédentes études, les substances étaient examinées une par une.
Ces nouveaux travaux révèlent qu’il existe, d’un point de vue statistique, des interactions significatives entre plusieurs additifs emblématiques des principaux mélanges consommés et que cela pourrait potentiellement impacter la santé (en l’occurrence le risque de diabète ici), au-delà des effets des substances individuelles. Ce constat suggère qu’il pourrait exister des effets « cocktails », les synergies ou antagonismes évoqués plus haut.
T. C. : Quelle est la suite à donner à ces recherches ?
M. T. : Nos collègues de l’Inrae au laboratoire Toxalim, à Toulouse, sont partis de nos observations sur la cohorte NutriNet-Santé et les ont transposées sur des modèles cellulaires. Concrètement, ils ont testé différents additifs et leurs mélanges sur des cellules cultivées en laboratoire, afin d’en établir la toxicité potentielle.
Certains de leurs résultats ont été publiés fin 2024. Ils suggèrent non seulement l’existence d’une toxicité de certaines substances prises séparément, mais aussi des effets de mélange qui vont au-delà des effets individuels. Ce qui appuie donc expérimentalement nos observations.
Des études menées cette fois in vivo, autrement dit sur des modèles animaux, sont également en cours afin de déterminer les effets de ces substances sur le microbiote intestinal, la perméabilité intestinale, etc. L’équipe Métatox à Paris explore, quant à elle, la capacité des additifs à entraîner le développement d’un cancer et, plus spécifiquement, le risque de propagation de la maladie (métastases).
Nous travaillons aussi sur les mécanismes en jeu dans la cohorte NutriNet-Santé : par exemple, nous collectons en ce moment les selles de 10 000 participants pour étudier leur microbiote intestinal, en lien avec leurs expositions aux additifs et aliments ultratransformés.
Par ailleurs, les additifs ne sont pas les seuls composés qui peuvent avoir des effets sur la santé et se retrouver potentiellement impliqués dans des effets cocktails, en plus de leurs effets individuels. Nous sommes également en train d’étudier les conséquences des résidus de pesticides, des contaminants provenant des emballages (plastiques, encres, résines appliquées à l’intérieur des boîtes de conserve…), etc.
À lire aussi : Microplastiques, nanoplastiques : quels effets sur la santé ?
T. C. : En attendant les conclusions de ces travaux, quels enseignements tirer des connaissances actuelles ?
M. T. : L’état actuel des connaissances plaide pour une limitation de la consommation de produits industriels ultratransformés, ce qui est la recommandation officielle du Programme national nutrition santé : réduire le recours aux aliments ultratransformés dans son alimentation, qui contiennent des additifs non indispensables, tels que les émulsifiants, colorants ou édulcorants, par exemple.
Par ailleurs, il faudrait également faire évoluer la réglementation pour que soit davantage pris en compte l’effet des mélanges dans les évaluations de la toxicité potentielle. Pour pouvoir légiférer en ce sens, toutefois, il faut des études les plus complètes possibles. C’est pourquoi nous allons continuer nos recherches, pour apporter le maximum d’éléments de réflexion.
Pour y parvenir, il faudrait aussi que les scientifiques aient accès à l’ensemble des substances employées lors de la fabrication des aliments industriels, notamment les auxiliaires technologiques, ces substances qui sont utilisées pendant les processus de fabrication et qui ne sont pas censées se retrouver dans le produit fini mais dans lequel elles sont néanmoins parfois détectées. À l’heure actuelle, cette partie de la production alimentaire est une véritable boîte noire à laquelle les chercheurs n’ont pas accès.
Un appel au recrutement de nouveaux nutrinautes est toujours en cours afin de continuer à faire avancer la recherche publique sur les relations entre la nutrition et la santé. En consacrant quelques minutes par mois à répondre, sur Internet, sur la plateforme sécurisée etude-nutrinet-sante.fr, aux différents questionnaires relatifs à l’alimentation, à l’activité physique et à la santé, vous pouvez contribuer à faire progresser les connaissances, vers une alimentation plus saine et plus durable.
Mathilde Touvier a reçu des financements de divers organismes public ou associatifs à but non lucratif : European Research Council, INCa, ANR, etc.
Marie Payen de la Garanderie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 17:08
Thomas Guillemette, Professeur de Microbiologie, Université d'Angers
La sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.
L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.
Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.
Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.
De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.
Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.
La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.
La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.
Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.
L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.
L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.
Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.
Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.
L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.
Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.
L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.
Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.
Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.
10.04.2025 à 17:08
Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School
Dès que les marchés financiers baissent soudainement, l’ombre d’un krach refait surface, et avec elle tout un imaginaire de crise économique venue des années 1930. Mais à partir d’une chute de quelle ampleur peut-on parler de krach ? A-t-il toujours des conséquences négatives sur l’économie réelle ? Et la chute récente des marchés à la suite des annonces de Donald Trump sur les droits de douane constitue-t-elle un krach ? Ou cède-t-on à la panique quand on emploie cette expression ?
Que désigne l’expression krach boursier ?
Le terme de krach (grand bruit en allemand) apparaît pour la première fois dans le langage boursier lors de la chute des marchés viennois et berlinois de 1873. Depuis il désigne une forte baisse des cours principalement sur les marchés actions, mais également sur les obligations (on parle alors de krach obligataire) voire sur les devises ou les matières premières, comme le krach de l’argent métal en mars 1980. La fermeture retentissante du marché à terme parisien du sucre en 1974 constitue un autre exemple qui a inspiré un film attribuant – à tort – la flambée puis l’effondrement du marché à une coterie de spéculateurs.
Qui décide quand une chute devient un krach ?
Aujourd’hui, le terme désigne principalement une chute des marchés actions et les acteurs de la Bourse ont progressivement circonscrit l’expression à toute baisse brutale du marché supérieure à 20 % par rapport au plus haut le plus récent, et cela dans un délai très court ( d’une à cinq séances en général). À cette aune, on parlera sans doute dans les annales boursières du krach de Trump. Les États-Uniens parlent déjà du « Trump Put » (la baisse de Trump) ou du krach des droits de douane du début avril 2025 même si on n’a pas atteint exactement les 20 % de baisse. En effet, le Dow Jones a chuté de plus de 45 000 points au plus haut le 30 janvier 2025 (soit 10 jours après l’investiture du nouveau président) à 36 600 points le lundi 7, soit une correction de 18,67 %. Le CAC 40 quant à lui plafonnait à 8 200 points le 18 février avant de toucher un point bas à 6 764 points le 7 avril : une baisse de 17,5 %.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Pourquoi se réfère-t-on toujours au krach de 1929 ?
Dans l’imaginaire collectif, le krach de 1929 est toujours le krach archétypal. Entre le 22 octobre et le 13 novembre, le Dow Jones a perdu 40 % avec des séances comme le jeudi 24 octobre (le fameux jeudi noir dans la mythologie boursière) marqué par une baisse de 22 % durant la séance (mais finalement de seulement 2 % en clôture) ou le lundi 28 octobre, la pire séance de l’époque avec 13 % de baisse. Churchill alors en visite aux États-Unis a d’ailleurs alimenté la légende noire du krach en lançant la rumeur (sans fondement) d’une vague de suicides de spéculateurs par défenestrations.
Est-ce la plus grande baisse des marchés financiers jamais observée ?
Non. Le pire jour de l’histoire de Wall Street reste le lundi 19 octobre 1987. Après une baisse de 4 % le vendredi 16 octobre, le marché a subi alors un écroulement de 22,6 % bien supérieur au lundi noir de 1929.
À lire aussi : Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes
Si l’on se réfère encore au krach de 1929 et moins à celui de 1987, c’est essentiellement pour ses conséquences sur l’économie réelle et la dépression qui a suivi, largement dues aux erreurs des 4 grandes banques centrales de l’époque (la Fed, la Bank of England, la Banque de France et la Reichsbank allemande). En maintenant leurs taux d’intérêt à des niveaux supérieurs à 4 %, elles ont étouffé l’économie et transformé une inévitable récession due au retournement du cycle économique américain après les excès des années 20 en une profonde dépression déflationniste dont il fut très douloureux de sortir.
Les leçons de 1929-1933 ont d’ailleurs été retenues par les banquiers centraux contemporains puisque les crises boursières de 1987, de 2001 et surtout de 2008 (crise des subprimes) et 2020 (crise du COVID) ne se sont pas transformées en dépressions généralisées grâce à des baisses rapides, brutales et concertées des taux des grandes banques centrales et même à l’utilisation inédite du Quantitative Easing parallèlement à des politiques contracycliques unanimes des États qui ont laissé filé leur déficit budgétaire.
Comment expliquer la baisse de Wall Street au début du mois d’avril ? Va-t-on assister à un krach ?
Il faut d’abord rappeler que la correction actuelle sur les marchés actions n’a rien d’irrationnel, les cours ayant atteint début 2025 des niveaux stratosphériques aux États-Unis avec l’envolée des actions des 7 Magnifiques et les promesses mirifiques de l’intelligence artificielle. Les cours des actions américaines ont, en effet, augmenté de 360 % depuis 2010 contre 40 % pour le reste du monde.
À court terme, les marchés vont évoluer au gré des annonces douanières erratiques de Donald Trump comme l’a montré la reprise technique violente des Bourses américaines le mercredi 9 avril. Il est fort probable qu’il poursuive une stratégie brouillonne de confrontation commerciale avec les pays excédentaires, au premier rang desquels figure la Chine. En effet, son obsession pour les droits de douane et son culte de William Mc Kinley, le 25e président des États-Unis, célèbre pour avoir augmenté fortement les droits de douane (avant de reconnaître peu avant son assassinat en fonction que c’était une erreur) sont très profondément ancrés en lui et constituent une des rares pierres angulaires de son idéologie. Dans ces conditions, on voit mal comment l’Amérique et ses partenaires commerciaux pourraient échapper à une récession et les marchés financiers, reflets à long terme d’économies qui ont besoin de stabilité, à un Bear Market, un marché durablement baissier.
Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 17:06
Olivier Bessy, Professeur émérite, chercheur au laboratoire TREE-UMR-CNRS 6031, Université de Pau et des pays de l'Adour (UPPA)
Courses de quartier, semi-marathons, marathons, trails et ultra-trails, pourquoi y a-t-il toujours plus d’inscrits ? Souci de performer et de paraître, recherche de sensations extrêmes, ou quête de soi ?
Courir n’est plus perçu aujourd’hui comme une chose étrange, anodine, voire marginale ! Ni comme une mode passagère. Mais au contraire comme une pratique de masse qui s’est installée dans le quotidien d’un nombre toujours plus important de femmes et d’hommes ordinaires, de tous âges, à travers le monde. La course à pied a changé d’image, elle est devenue pour beaucoup d'adeptes la chose la plus importante des choses secondaires. En tant qu’espace-temps privilégié et symbolique de valorisation de soi, elle favorise de multiples formes de constructions identitaires et permet ainsi à chacun de tracer son chemin d’existence.
Du simple jogging d’entretien à des séances d’entraînement, ou encore à travers la participation à des courses ordinaires de quartier, à des manifestations ludiques (courses à obstacles…) ou solidaires (Odysséa…), ou encore à un semi-marathon, un marathon, un 100 km, sans parler des trails et ultras-trails, la course à pied se reconfigure dans de multiples versions et hybridations qui permettent aux adeptes d’en retirer des bénéfices symboliques en matière existentielle.
Dans ce contexte, un phénomène nouveau attire l’attention depuis quelque temps, car il prend une proportion inégalée jusqu’ici. Jamais autant de coureurs n’ont cherché à obtenir un dossard. Les compteurs s’affolent, les temps d’inscription se rétrécissent, les places deviennent de plus en plus chères.
L’année 2025 s’annonce comme celle de tous les records. Jamais de mémoire d’organisateur, un tel engouement pour obtenir un dossard, ouvrant droit à participer à une course, n’a été observé. Si, hier, les épreuves les plus connues connaissaient déjà de longues listes d’attente, le phénomène concerne aujourd’hui la quasi-totalité des courses. La tension sur les inscriptions s’est élargie et amplifiée.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
On assiste aujourd’hui, au sein de l’énorme vivier des coureurs ordinaires, à une envie contagieuse d’accrocher un dossard. Sur les 15 millions de coureurs estimés en France, on en dénombre cinq millions dans ce cas, soit le tiers des coureurs, ce qui représente un chiffre considérable jamais atteint jusque-là. Même si l’offre de course s’est développée en parallèle à l’augmentation de la demande (8 500 courses organisées en 2024 en France, dont plus de la moitié sont des trails, soit 4 500), la proportion toujours plus importante de coureurs désireux d’acquérir un dossard provoque un goulet d’étranglement généralisé.
De plus, on peut mettre en évidence deux phénomènes qui contribuent à amplifier le problème. Le premier fait référence au nombre croissant de courses réalisées par la même personne durant une année et le second s’observe dans la diminution progressive du temps mis par un jogger pour s’inscrire à une course. Mais alors comment expliquer ce changement de comportement de nombreux coureurs qui, hier, ne rêvaient pas de prendre un dossard et qui aujourd’hui passent le cap ?
Cette frénésie de la demande pour participer à différents types de courses organisées ne peut se comprendre qu’en convoquant la sociologie des loisirs qui fournit un éclairage pertinent sur les modes de consommation de nos contemporains, en cohérence avec l’hypermodernité qui nous gouverne aujourd’hui. Ce modèle sociétal repose sur la performance illimitée sur l’intensification de son mode d’existence et la mise en spectacle de soi-même.
Autant de valeurs qui irriguent les comportements des individus aujourd’hui et engendrent chez les coureurs un nouveau rapport à soi, aux autres et à l’environnement qui trouvent dans les courses organisées, un terrain d’expression particulièrement significatif.
En participant à un événement, quel qu’il soit, le coureur cherche à intensifier sa vie en vivant une expérience originale et en recherchant la performance.
Il s’inscrit dans « l’apparition du sujet intense qui est symptomatique du désir d’une puissance retrouvée et de l’affirmation d’une présence au monde, supposée échapper au décompte. Il se traduit par une quête d’intensification et de jaillissement de la vie », comme l’écrit Tristan Garcia.
Plus l’épreuve est extrême (marathon, 100 km, ultra-trail) et nécessite un engagement important de la personne dans la préparation comme dans la réalisation, plus elle permet au coureur de se challenger, de vivre un moment d’une intensité exceptionnelle et de se valoriser à la hauteur de l’exploit accompli. Cette logique est encore plus présente dans les épreuves emblématiques qui s’apparentent aujourd’hui à de véritables mythes. Participer et terminer le Marathon de Paris, la Diagonale des fous ou l’Ultra-Trail du Mont-Blanc (UTMB) permet aux coureuses et coureurs concernés d’en retirer des bénéfices symboliques encore plus importants.
De plus, courir au sein d’une épreuve organisée, offre à chacun une scène inégalée en matière de visibilité de sa performance même relative et donc un espace-temps privilégié de mise en spectacle de soi-même. Chaque coureur devient un héros même en participant à une course du dimanche ou de quartier. C’est d’autant plus vrai que l’événement est théâtralisé sur l’ensemble du parcours et, notamment, au départ et à l’arrivée, mais aussi fortement médiatisé en s’inscrivant dans le paysage local et national.
Même si ce sont des épreuves individuelles, on ne court jamais seul, on ne court pas contre, on court avec. Une nouvelle sociabilité à géométrie variable s’instaure. Participer à une course s’apparente aussi à une parenthèse enchantée où chacun joue sa propre partition tout en la partageant avec les autres.
Il y a, tout d’abord, cette communion solennelle et émotionnellement intense au départ, faite de regards complices, d’applaudissements et d’admirations réciproques. Chacun lit dans le regard de l’autre le respect d’être là et de faire partie d’une élite, mais aussi l’angoisse du défi à réaliser. Cette angoisse est mise en spectacle lors des événements les plus célèbres, avec les speakers, la musique, les feux de Bengale, le coup de feu et la foule qui s’ébranle.
Et puis la magie se prolonge pendant la course où les interactions avec les autres coureurs, mais aussi avec les bénévoles et les spectateurs sont multiples et variables selon les ambiances propres à chaque événement. Sans oublier l’arrivée qui constitue toujours une délivrance, mais aussi un aboutissement personnel salué par toute la communauté présente. Terminer une course, a fortiori un marathon ou un ultra-trail, permet de passer d’anonyme à héros et participe à la production d’une identité collective de reconnaissance dans la mesure où le finisher a le sentiment d’être valorisé par autrui, à la hauteur de l’exploit qu’il vient d’accomplir.
Enfin, ces courses sont l’occasion de fabriquer du récit à propos de sa participation et de ses exploits sur les réseaux sociaux. Ces derniers jouent un rôle très important dans la construction des imaginaires.
Participer à une course organisée, quelle qu’elle soit, modifie également le rapport à l’environnement de chaque participant qui passe d’un environnement choisi, non balisé et peu contraignant propre à ses lieux d’entraînement, à un environnement imposé, balisé et domestiqué. Ce transfert de plus en plus fréquent s’inscrit dans notre époque paradoxale où donner du sens à son existence se concrétise aussi en investissant une organisation.
S’engager dans une telle épreuve peut être assimilée à une forme de servitude volontaire où l’on décide du joug que l’on s’impose parce qu’il est pourvoyeur de bénéfices symboliques incommensurables pour les meilleurs, mais aussi pour tous ceux qui terminent.
Tous ces coureurs qui se bousculent au portillon des courses organisées pour obtenir un dossard, sont-ils animés uniquement par un double souci de performer et de paraître ? Car devoir faire constamment la preuve de sa propre existence est à la fois le moteur et la fragilité de l’individu hypermoderne, fasciné par la croyance dans le progrès infini et dans la version moderne du mythe de Sisyphe, qui incarne l’injonction permanente au dépassement de soi.
« Tandis que l’homme moderne était un principe, l’homme hypermoderne serait une fiction imposée aux individus à force de slogans et d’images », précise à ce propos Nicole Auber.
Face à cette fiction hypermoderne, ne peut-on considérer que ces modes d’engagement et d’encadrement de plus en plus recherchés par les coureurs obéissent aussi à la recherche d’un nouveau sens irrigué par la transmodernité en émergence. Éviter les interprétations schématiques, c’est considérer que les coureurs ne sont pas tous animés uniquement par la performance désincarnée et la mise en spectacle illimitée de soi, soumis à une logique permanente d’accélération, mais qu’ils sont attirés aussi par une quête intérieure à forte résonance intime, sociale et environnementale, dans un espace-temps en décélération.
Autrement dit, prendre un dossard, a fortiori dans le cadre de courses festives, solidaires et à forte vigilance environnementale, peut s’envisager différemment, en privilégiant un engagement plus réflexif, une sociabilité plus engagée et un rapport plus protecteur à l’environnement. L’expérience vécue participe aussi d’une forme de réenchantement de son existence.
Et si, dans tous les cas, ces coureurs en quête de dossards ne jouaient rien de moins que leur survie, dans une société empreinte de paradoxes et en proie à la morosité ?
L’auteur de cet article publie, courant 2025, Courir. De 1968 à nos jours, t. 2 : Courir sans limites. La révolution de l’ultra-trail, préface de Georges Vigarello, éditions Outdoor.
Olivier Bessy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.