ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
12.04.2025 à 16:55
Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle
Texte intégral (2056 mots)
Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».
De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.
La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.
À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.
Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.
Une asymétrie réglementaire entre réseaux sociaux et audiovisuel
Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.
Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.
Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.
Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.
Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Asymétrie de moins en moins justifiée
Trois principales raisons sont invoquées.
Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.
Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que
« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».
Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.
Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.
Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.
Vers des algorithmes pluralistes…
À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.
Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.
Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.
Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.
Mesurer le degré d’artificialité, une approche qui fait ses preuves
Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.
Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.
Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.
Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).
Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.
10.04.2025 à 17:08
« The Last of Us » et les champignons : la vraie menace n’est pas celle des zombies…
Texte intégral (2403 mots)

La sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.
L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Des insectes zombifiés
Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.
Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.

Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.
De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.
Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.
La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.
La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.
De véritables menaces pour les humains
Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.
L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.
L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.
Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.
Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.
Des risques pour la santé humaine
L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.
Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.
L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.
Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.

Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.
09.04.2025 à 16:52
Ultra-trail : ce que révèle la science sur ce sport extrême
Texte intégral (1683 mots)

Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs sur un parcours de 156 kilomètres. De quoi déconstruire quelques mythes et d’accumuler de nouvelles connaissances sur cette pratique extrême.
Des cimes pyrénéennes aux sentiers escarpés de la Réunion, l’ultra-trail est devenu un phénomène global. Selon l’International Trail Running Association (ITRA), plus de 1,7 million de coureurs sont enregistrés dans leur base de données, et pas moins de 25 000 courses sont organisées chaque année dans le monde.
On distingue plusieurs formats de course à pied en nature : du trail découverte (distance inférieure à 21 km) à l’ultra-trail (distance supérieure ou égale à 80 km). Dans cette dernière classification, la distance 100 Miles (165 km) est la distance reine, même si, aujourd’hui il existe des ultra-trails de 330km (Tor des Geants) ou la Double Suisse-Pick (700 km).
Pourquoi un tel engouement ? La discipline séduit par son aspect immersif en pleine nature, sa capacité à procurer un sentiment d’évasion et de connexion profonde avec l’environnement. Cet attrait va au-delà du sport : il s’inscrit dans une philosophie de vie, une quête de dépassement personnel et d’expérience du présent.
Dans l’ouvrage collectif « Les Sentiers de la Science », nous explorons ces multiples dimensions du trail. Cet ouvrage réunit les contributions de plus de 40 chercheurs issus de disciplines variées et vise à éclairer scientifiquement cette discipline en pleine expansion. Il valorise notamment les résultats obtenus lors du protocole expérimental que nous avons mis en place pour l’ultra-trail de Clécy, en rendant accessibles au grand public les connaissances issues de cette expérience grandeur nature. L’ouvrage nourrit ainsi le débat sur la performance, l’expérience corporelle et la relation à la nature dans le trail.
Des Mythes et croyances à déconstruire ?
L’ultra-trail est souvent entouré de mythes par les pratiquants. Cette jeune discipline, pourtant de plus en plus documentée sur le plan scientifique, manque encore d’encadrement et de supports d’entraînement.
La littérature scientifique montre que la performance en ultra-trail est le fruit de compétences multiples : capacités respiratoires, force et endurance musculaire, gestion des allures de course, motivation et endurance mentale, capacité à s’alimenter et maintien de la glycémie, technique ou encore la gestion de la privation de sommeil.
Ces études de la performance montrent que des athlètes aux qualités différentes peuvent engager différemment certaines de leurs aptitudes pour une même performance finale. Elles démontrent pourquoi les femmes rivalisent largement avec les hommes sur ces distances. Il faut savoir que plus la distance augmente plus l’écart de performance diminue. On observe cela en cyclisme d’ultra longue distance également.
Étudier les contributions respectives de ces paramètres in-situ de la performance n’est pour autant pas facile pour les scientifiques. Généralement un de ces paramètres va être isolé et une équipe va étudier par exemple, la fatigue musculaire avant et après la course (sans finalement avoir une idée de l’évolution de cette fatigue pendant l’effort), parfois quelques mesures pendant la course sont réalisées et apportent davantage de connaissances. Mais cette approche isole tous les autres facteurs. Il est donc difficile de comprendre les interactions avec les autres fonctions : la diminution de la force est-elle corrélée à la glycémie ou à la privation de sommeil par exemple ?
L’ultra-trail de Clécy (156 kilomètres), organisé au cœur de la Suisse-Normande au sud de Caen, conçu comme une expérience scientifique grandeur nature, a permis de confronter ces croyances aux données factuelles.
Cette course a été pensée comme un laboratoire à ciel ouvert pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs représentant la diversité de la population présente sur un trail de niveau national : des coureurs de haut niveau et des amateurs, 75 % d’hommes et 25 % de femmes, avec des analyses détaillées de leur glycémie, des biomarqueurs sanguins inflammatoires, le sommeil, l’hydratation, les paramètres dynamiques tendineux, cardiaques et les adaptations musculaires,la température centrale, les paramètres biomécaniques de la foulée, etc.
Ce protocole a aussi été un défi sur le plan technologique et organisationnel. Certaines mesures étaient enregistrées en continu comme la température centrale du corps à l’aide d’une gélule gastro-intestinale qui envoyait toutes les minutes une donnée sur un moniteur, ou des capteurs implantés dans le triceps des coureurs mesurant en continu la glycémie. D’autres capteurs positionnés sur les chaussures mesuraient les paramètres biomécaniques de la foulée (temps de contact au sol, longueur de la foulée, puissance, cadence) et un gilet connecté permettait de suivre la fréquence cardiaque et respiratoire.
Les coureurs passaient différents tests, des échographies cardiaques pour comprendre comment les paramètres cardiaques évoluaient au cours de la course, des tests devant écran pour mesurer leur état de vigilance, des tests en réalité virtuelle pour perturber leur équilibre et comprendre comment leur système vestibulaire pouvait compenser le conflit sensoriel visuel, des tests de détente verticale pour mesurer la puissance musculaire.
D’autres études menées avec nos collègues proposent d’étudier la discipline de l’Ultra Trail par une approche davantage sociale portant sur trois grands axes d’étude qui structurent les travaux de recherche : engagement et profils des coureurs, facteurs mentaux et expérience corporelle, rôle des territoires et des événements dans le développement du trail.
Ultra-trail et expérience existentielle
Au-delà de la simple performance sportive, le trail représente aussi une véritable aventure intérieure. Les coureurs témoignent souvent d’un profond dépassement personnel, lié non seulement à l’effort physique mais aussi à une exploration plus intime de leurs sensations et émotions. Dans notre ouvrage, cette dimension existentielle est particulièrement soulignée : les participants racontent comment courir en pleine nature leur permet d’être pleinement attentifs à leurs sensations corporelles (comme le froid nocturne, les battements de leur cœur ou la tension musculaire). Ces expériences sensorielles intenses provoquent souvent une véritable gratitude envers leur environnement, particulièrement face aux paysages jugés spectaculaires ou « à couper le souffle ».
Concrètement, nous avons pu mesurer précisément comment les coureurs perçoivent ces sensations à l’aide d’un outil appelé State Mindfulness Scale, une échelle qui permet d’évaluer à quel point les coureurs sont conscients et présents dans leur corps pendant la course. Les résultats indiquent clairement que cette pratique améliore notablement la capacité des coureurs à ressentir intensément leur corps et à mieux identifier leurs limites physiques, favorisant ainsi une expérience enrichie et profonde du trail.
Dans une perspective philosophique, cela rejoint l’un de nos précédents articles publié dans The Conversation montrant comment cette discipline interroge notre rapport au monde.
Que retenir de notre expérience ?
Les résultats de l’étude du trail de Clécy et les contributions académiques permettent d’identifier plusieurs recommandations :
Individualiser l’entraînement : il n’existe pas de recette universelle, chaque coureur doit écouter son corps.
Optimiser la récupération : la gestion du sommeil est un levier essentiel de performance et de bien-être.
Accepter l’incertitude : la préparation mentale est une clé pour affronter l’inconnu et la fatigue extrême.
Ne pas minimiser la période de récupération : on observe une forte élévation des marqueurs inflammatoire, une hyperglycémie et un sommeil de mauvaise qualité sur les nuits suivantes.
Rester vigilant à l’automédicamentation : ne jamais courir sous anti-inflammatoire.
Rester vigilant sur les troubles du comportement alimentaire et l’addiction à l’activité.
L’ultra-trail apparaît ainsi comme une école du vivant, entre prouesse athlétique et exploration humaine. La science permet aujourd’hui de mieux comprendre ce phénomène, tout en laissant place à la magie de l’expérience personnelle.

Mathilde Plard a reçu des financements de l'Université d'Angers pour la mise en place du protocole scientifique sur les dimensions psychosociales de l'Ultra Trail Scientifique de Clécy.
Benoît Mauvieux a reçu des financements des Fonds Européens (FEDER) et de la Région Normandie pour le financement de l'Ultra Trail Scientifique de Clécy (RIN APEEX : Adaptations physiologiques en environnements extrêmes)
03.04.2025 à 20:03
Les bonobos font des phrases (presque) comme nous
Texte intégral (2307 mots)
Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.
Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».
La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.
Un dictionnaire bonobo
Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.
Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.
Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».
Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.
La syntaxe chez les bonobos
Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.
Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.
Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.
En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.
Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.

Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).
Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.
De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.
Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».
L’évolution du langage
Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.

Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).
03.04.2025 à 17:52
Séisme au Myanmar : les dessous tectoniques d’une catastrophe majeure
Texte intégral (2271 mots)
Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.
Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.
Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.
Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.
À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite
Le Myanmar repose sur un système tectonique chargé
Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.

Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.
Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.
Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».
De nombreux séismes dans l’histoire birmane
Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.
Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.
Mieux comprendre le cycle sismique, ou comment les contraintes s’accumulent avant d’être relâchées lors un séisme
Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.
La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.
Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.
Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.
Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.
La prévision sismique : on peut anticiper la magnitude maximale d’un prochain séisme, mais pas sa date
Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).
La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.
Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.
Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.
La crise sismique est-elle terminée ?
Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.
Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.
Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».

Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.