02.05.2026 à 09:58
Alexandra Aikhenvald, Professor and Australian Laureate Fellow, Jawun Research Institute, CQUniversity Australia

Pourquoi certaines langues s’imposent-elles comme outils universels avant de décliner ? De l’Antiquité à l’ère numérique, les lingua francas suivent les routes du pouvoir et des échanges.
Lorsque les Croisés débarquent sur les rivages orientaux de la Méditerranée à la fin du XIe siècle, ils doivent communiquer entre eux, mais aussi avec les marchands et les populations locales.
Beaucoup parlent alors différentes langues romanes : l’italien (notamment celui des puissantes cités-États de Venise et de Gênes), le provençal, le français ou encore leur ancêtre commun, le latin.
La plupart des Occidentaux présents en Europe du Sud sont français, en particulier originaires de la zone comprise entre Marseille et Gênes, d’où partent navires et marchands vers le Moyen-Orient. Ces Occidentaux sont désignés collectivement par les Arabes et les Grecs sous le nom de « Francs ».
Autour de la quatrième croisade (1202–1204), voire un peu plus tôt, une langue composite émerge progressivement en Méditerranée orientale, avant de se diffuser vers l’ouest. Cette langue commune, utilisée par les « Francs » et par ceux qui commercent et combattent avec eux, est aussi appelée sabir, italien bâtard ou espagnol bâtard. Mais c’est sans doute sous le nom de lingua franca que vous la connaissez le mieux : littéralement, la « langue des Francs ».
Cette langue franque est un mélange d’italien, de français et d’espagnol simplifiés, enrichi de quelques apports arabes et turcs. Elle est utilisée sur les rivages méditerranéens du Moyen-Orient jusqu’à la fin du XIXe siècle, avant de tomber en désuétude.
Écrit en minuscules, lingua franca désigne aujourd’hui toute langue servant de moyen de communication entre des personnes qui n’en partagent pas d’autre.
Les lingua francas remontent à l’Antiquité. Le sanskrit a ainsi servi de langue véhiculaire dans une grande partie de l’Asie du Sud-Est et de l’Asie centrale au cours du premier millénaire de notre ère, notamment par le biais des échanges commerciaux et de la diffusion religieuse.
Autour de la Méditerranée, le grec joue ce rôle d’environ 300 avant J.-C. à 500 après J.-C. : il est utilisé dans le commerce, la littérature, l’enseignement et dans la propagation du christianisme primitif.
Entre le IIe et le IVe siècles, le latin standard supplante le grec comme lingua franca de l’Église catholique en expansion. Il s’impose alors comme langue paneuropéenne de la religion, de la culture et du savoir, et le demeure jusqu’au XIXe siècle.
À partir du XVIIe siècle, l’arabe s’impose comme une _lingua franc_a dans l’ensemble du monde islamique, reliant des communautés d’Afrique et d’Asie.
Au même siècle, avec l’essor de la France comme puissance économique, le français remplace progressivement le latin dans de nombreux domaines et devient la première lingua franca « mondiale » en politique, diplomatie, commerce et éducation. Langue des cours royales, il est utilisé par les savants, les aristocrates, les marchands et les diplomates pour communiquer et écrire entre eux. Le français demeure la principale langue des relations internationales jusqu’à la fin de la Seconde Guerre mondiale.
Après les années 1940, en partie sous l’effet de l’influence croissante des États-Unis, l’anglais s’impose comme la principale lingua franca à l’échelle mondiale.
Avec l’expansion coloniale des puissances impériales et de leurs langues — espagnol, anglais, français, portugais, allemand et néerlandais — à partir du XVe siècle environ, le terme lingua franca en vient à être utilisé comme un nom commun.
Tout au long de la colonisation européenne, des personnes issues de groupes linguistiques différents sont contraintes de travailler ensemble comme esclaves ou engagés sous contrat. Elles communiquent entre elles, ainsi qu’avec leurs maîtres, au moyen d’une langue simplifiée, utilisée pour des besoins limités : des ordres simples, des questions, des énoncés basiques mêlant les éléments dont chacun dispose. Ce type de moyen de communication improvisé est appelé pidgin (qui viendrait du mot anglais « business »).
Les pidgins peuvent servir de lingua franca. Lorsque leurs locuteurs commencent à se marier entre eux, un pidgin peut devenir la seule langue parlée par la génération suivante. Il se développe alors en une langue à part entière — un créole — utilisée dans tous les contextes.
Des créoles comme le tok pisin en Papouasie-Nouvelle-Guinée, le sranan au Suriname, le kristang en Malaisie ou encore le créole haïtien en Haïti servent aujourd’hui de lingua franca dans ces pays.
Une langue globale peut aussi être créée de toutes pièces.
La fin du XIXe siècle voit fleurir les projets de langues universelles. La plus célèbre est l’espéranto, « langue de l’espoir », créé par Ludwik Zamenhof en 1887 comme « langue internationale », c’est-à-dire une lingua franca générale. L’espéranto compte encore aujourd’hui quelques milliers de locuteurs natifs et bien davantage d’adeptes, mais son usage tend progressivement à reculer.
Les lingua francas apparaissent lorsqu’elles deviennent nécessaires, puis déclinent lorsqu’elles sont remplacées par d’autres. L’allemand a ainsi cessé d’en être une avec la perte des colonies après la Première Guerre mondiale. Le portugais reste une lingua franca au Brésil, et l’espagnol dans d’autres pays d’Amérique du Sud.
Quant au français, son empreinte mondiale perdure : à l'étranger, on envoie encore une lettre par avion ou poste restante.
Mais il y a un grand gagnant, loin devant les autres. L’anglais est désormais devenu la langue mondiale, s’étendant bien au-delà des locuteurs natifs et des anciennes colonies des puissances anglophones. Il est la langue de la diplomatie internationale, du monde académique et, surtout, des avancées technologiques, des réseaux sociaux et de l’intelligence artificielle.
La diffusion rapide de l’anglais menace-t-elle de faire disparaître les autres langues, qu’il s’agisse de langues minoritaires ou d’autres lingua francas, et plus largement la diversité linguistique à l’échelle mondiale ? La question reste ouverte. L’importance croissante du mandarin comme principale lingua franca en Chine, de l’arabe à travers l’Afrique et le Moyen-Orient, ainsi que la résilience des locuteurs à faire vivre leurs langues – et, avec elles, leurs cultures et leurs histoires – pourraient bien contenir l’hégémonie de l’anglais.
Alexandra Aikhenvald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.05.2026 à 09:32
Emily J. Whitted, Ph.D. Candidate in Early American History, UMass Amherst
Rapiécer, gérer, entretenir : dans le foyer de l’un des hommes les plus riches d’Amérique, des femmes ont contribué, sans reconnaissance, à une prospérité qui leur échappait.
À sa mort en 1831, Stephen Girard – marchand, banquier et philanthrope de Philadelphie – était l’homme le plus riche des États-Unis. Dans son testament, il légua à la ville de Philadelphie (Pennsylvanie, Nord-Est des États-Unis) un don exceptionnel d’environ 6 millions de dollars, soit près de 194 millions d’euros aujourd’hui.
Girard demanda notamment qu’une partie de cette somme soit utilisée pour fonder un internat destiné aux garçons blancs pauvres et orphelins. Aujourd’hui, cet établissement, qui accueille des élèves du primaire au lycée, est connu sous le nom de Girard College et admet des élèves issus de milieux défavorisés, sans distinction de race ni de genre. L’institution a hérité des biens matériels de Girard, parmi lesquels du mobilier, des papiers personnels et des vêtements – dont une paire de bas de soie abondamment rapiécés.
Leur conservation peut surprendre : pourquoi l’homme le plus riche des États-Unis portait-il des vêtements raccommodés ? En tant qu’historienne du textile, spécialisée dans le travail du raccommodage dans l’Amérique des débuts, j’ai étudié les points utilisés pour réparer les bas de Girard, ainsi que ses riches archives.
Croisées, ces sources historiques m’ont permis de mettre au jour de nouveaux éléments sur la valeur des textiles dans l’Amérique d’alors, mais aussi sur le rôle des femmes – notamment celles qui travaillaient dans la maison du riche marchand – dans l’essor économique du pays.
Les textiles étaient utilisés au quotidien par la quasi-totalité des Américains de l’époque coloniale et des débuts de la République et constituaient alors bien souvent les biens les plus précieux que l’on pouvait posséder.
Malgré la mécanisation à grande échelle, ils coûtaient cher en raison du prix des matières premières et du travail qualifié nécessaire à la fabrication des étoffes ; ils étaient en outre fréquemment importés. À la fin du XVIIIe et au début du XIXe siècle, les États-Unis voyaient émerger une industrie textile nationale, mais de nombreux Américains continuaient d’importer des tissus depuis l’étranger, notamment de Grande-Bretagne, de France et d’Inde. Les factures du foyer de Girard montrent qu’il achetait régulièrement une grande partie de ses vêtements – y compris ses bas de soie – en France.
La forte valeur des textiles à cette époque explique que même les foyers les plus aisés jetaient rarement les vêtements abîmés. On les réparait plutôt, à l’aide d’aiguilles et de fil. Si certains hommes pratiquaient aussi le raccommodage, l’immense majorité de ces travaux était réalisée par des femmes.
Au sein du foyer de Girard, au moins trois femmes se chargeaient de repriser ses bas de soie et ses autres vêtements.
Bien que Girard ait été marié, son épouse Mary fut internée pour troubles mentaux à l’hôpital de Pennsylvanie en 1790, et le couple n’eut pas d’enfants. En l’absence de Mary, Girard eut plusieurs maîtresses qui faisaient office de gouvernantes : Sally Bickham, une femme quaker que Girard décrit dans une lettre comme une « tayloress », c’est-à-dire couturière, et Polly Kenton, blanchisseuse. Dans le cadre de leur travail, elles géraient les affaires domestiques et les achats de Girard, assurant le bon fonctionnement de son quotidien.
Par ailleurs, une femme noire nommée Hannah Brown, originaire de Saint-Domingue, ancienne colonie française correspondant aujourd’hui à Haïti, fut réduite en esclavage au sein du foyer de Girard pendant plus de quarante ans. Et ce, alors même que la loi d’abolition progressive adoptée en Pennsylvanie en 1780 aurait dû lui garantir la liberté dans les six mois suivant son arrivée aux États-Unis. L’abolition progressive n'y fut appliquée que de manière inégale, permettant à des propriétaires d’esclaves comme Girard d’en contourner les effets. Le testament du marchand accorda finalement la liberté à Hannah Brown.
Toutes trois travaillaient au service de Girard : elles reprisaient ses bas, géraient les tâches quotidiennes du foyer et veillaient à l’entretien de la maison. Les trois techniques de raccommodage visibles sur ses bas – comme le reprisage à la suisse, le reprisage tissé ou encore le renforcement des talons – constituent autant de traces matérielles de leur travail, aux côtés des archives écrites telles que les factures domestiques, les lettres et les reçus.
Aux premiers temps des États-Unis, de nombreuses femmes, libres ou réduites en esclavage, accomplissaient un travail domestique non rémunéré. Pourtant, ce travail a été une force essentielle de la croissance économique nationale au début du XIXe siècle. Partout dans le pays, des hommes comme Girard ont encouragé et tiré profit de l’industrialisation et de l’expansion des activités commerciales ; mais c’est le travail domestique non rémunéré des femmes qui a rendu possibles leur participation et leurs profits.
Si les habitants de Philadelphie ne voient aujourd’hui leurs noms ni sur les grandes artères ni sur les bâtiments de la ville, les efforts conjugués de Sally, Polly et Hannah — dissimulés dans les chaussures de Girard et éclipsés par l’ampleur de son héritage historique à Philadelphie — ont été essentiels à sa réussite économique.
Emily J. Whitted a reçu des financements de The Library Company of Philadelphia.
02.05.2026 à 08:55
Katrine L. Wallace, Assistant Professor of Epidemiology and Biostatistics, University of Illinois Chicago

De George Washington à la Seconde Guerre mondiale, la vaccination a été pensée comme un outil stratégique face aux maladies capables de décimer les troupes. Aujourd’hui, cette logique historique entre en tension avec la montée des revendications individuelles.
Pour la première fois depuis près de 80 ans, les militaires états-uniens ne seront plus tenus de recevoir le vaccin annuel contre la grippe. Le secrétaire à la Défense Pete Hegseth a annoncé ce changement le 22 avril 2026. Invoquant l’autonomie médicale et la liberté religieuse, il a qualifié cette obligation de « trop large et dénuée de rationalité », déclarant aux soldats que « votre corps, votre foi et vos convictions ne sont pas négociables ».
L’obligation vaccinale contre la grippe à laquelle Pete Hegseth a mis fin était en vigueur depuis 1945, avec une brève interruption en 1949. Elle s’inscrivait dans une tradition d’obligations vaccinales militaires presque aussi ancienne que les États-Unis eux-mêmes.
En tant qu’épidémiologiste spécialisée dans les maladies évitables par la vaccination, je trouve la fin de cette obligation moins marquante pour ses effets immédiats que pour ce qu’elle révèle. Pendant la majeure partie de l’histoire américaine, les commandants militaires partaient du principe que les maladies infectieuses pouvaient leur faire perdre une guerre, raison pour laquelle la vaccination relevait de la préparation opérationnelle plutôt que d’un choix individuel.
La première obligation vaccinale militaire américaine est antérieure à la Constitution. À l’hiver 1777, le général George Washington ordonne l’inoculation massive de l’armée continentale contre la variole.
Sa décision n’était pas idéologique – elle était stratégique. L’année précédente, une épidémie de variole avait ravagé les troupes américaines près de Québec, contribuant à l’effondrement de la campagne du Nord. John Adams écrivit à sa femme Abigail que la variole tuait dix soldats pour un seul tombé au combat.
L’inoculation en 1777 comportait elle-même des risques. La procédure, appelée variolisation, consistait à infecter volontairement un soldat avec une faible dose du virus de la variole afin de provoquer une immunité. George Washington a fait le pari qu’il valait mieux perdre quelques hommes à cause de l’inoculation que perdre une guerre face au virus. Des historiens ont attribué à cette décision le salut de l’armée continentale.
Ce schéma s’est maintenu pendant des siècles : lorsqu’une maladie infectieuse risquait de mettre plus de soldats hors de combat que les tirs ennemis, l’armée imposait des mesures de protection.
Les troupes américaines ont été vaccinées contre la variole de la guerre de 1812 jusqu’à la Seconde Guerre mondiale. Pendant la Première Guerre mondiale, l’armée a ajouté la vaccination contre la typhoïde. Lors de la Seconde Guerre mondiale, elle a élargi les obligations vaccinales pour inclure également le tétanos, le choléra, la diphtérie, la peste, la fièvre jaune et, en 1945, la grippe.
L’obligation vaccinale contre la grippe trouve son origine dans les expériences militaires lors de la pandémie de grippe de 1918. Ce printemps-là, une nouvelle souche de grippe s’est propagée dans des camps d’entraînement militaires surpeuplés avant de gagner l’Europe avec les troupes américaines. Environ 45 000 soldats américains sont morts de la grippe pendant la Première Guerre mondiale, presque autant que les quelque 53 000 tués au combat.
La pandémie de 1918 a fait la démonstration qu’un virus respiratoire pouvait paralyser une armée. Aussi, en 1941, alors que le pays se préparait à entrer dans un nouveau conflit mondial, l’armée américaine a-t-elle mis en place une commission sur la grippe qui s’est associée à l’université du Michigan pour développer le premier vaccin contre cette infection. Des essais cliniques menés sur des recrues ont montré qu’il réduisait de 85 % l’incidence de la maladie, et en 1945, l’armée a rendu la vaccination obligatoire. Environ 7 millions de militaires ont été vaccinés cette année-là.
L’obligation a été brièvement suspendue en 1949, lorsque les scientifiques ont compris que le vaccin devait être régulièrement mis à jour en raison de l’évolution du virus. Une fois les formulations adaptées de manière saisonnière, l’obligation a été rétablie au début des années 1950 et est restée en vigueur sans interruption jusqu’au changement de politique décidé par Pete Hegseth.
Pendant des décennies, les obligations vaccinales faisaient partie intégrante et peu contestée de la vie militaire. La pandémie de Covid-19 a changé la donne.
En août 2021, tous les militaires ont été sommés de se faire vacciner contre le Covid-19. Plus de 98 % des soldats en service actif ont obtempéré, mais cette obligation est devenue un point de crispation. Plus de 8 000 militaires ont été renvoyés de force pour avoir refusé le vaccin.
En 2023, le Congrès a adopté une loi obligeant Le Pentagone à annuler l’obligation vaccinale contre le Covid-19. Ce revirement a reconfiguré les enjeux politiques autour des obligations vaccinales dans l’armée. En janvier 2025, le président Donald Trump a ordonné la réintégration, avec indemnités rétroactives, des militaires renvoyés dans ce cadre.
En annonçant la fin de l’obligation vaccinale contre la grippe, Pete Hegseth s’est largement appuyé sur le vocabulaire de la « liberté médicale », issu des débats autour des vaccins contre le Covid-19, plutôt que sur de nouvelles données concernant la grippe ou l’efficacité du vaccin. Le mouvement pour la liberté médicale s’oppose à l’intervention de l’État dans ce que ses partisans considèrent comme des décisions de santé personnelles, y compris des recommandations de santé publique telles que les obligations vaccinales, le port du masque ou la distanciation sociale.
Les critiques de l’obligation vaccinale contre la grippe dans l’armée avancent que la grippe constitue aujourd’hui une menace plus modérée qu’en 1918, que les militaires sont en meilleure santé que la population générale et que, pour un virus saisonnier, le choix individuel devrait primer sur la logique de santé publique.
L’épidémiologie raconte une autre histoire.
Même si l’intensité des saisons grippales varie, le virus mute de manière si imprévisible que des pandémies comme celles de 1918, 1957, 1968 et 2009 restent une possibilité récurrente. La grippe continue d’ailleurs de causer chaque année des hospitalisations et des décès par dizaines de milliers aux États-Unis. Les Centers for Disease Control and Prevention estiment que le vaccin contre la grippe a ainsi évité environ 180 000 hospitalisations et 12 000 décès lors de la saison 2024-2025.
L’armée opère précisément dans des conditions qui favorisent la propagation des virus respiratoires : centres d’entraînement, casernes, navires ou sous-marins où les individus vivent en promiscuité.
La logique qui a conduit George Washington en 1777 et le Surgeon General de l’armée en 1945 à imposer la vaccination n’a, au fond, guère changé. Un soldat malade ne peut ni être déployé, ni s’entraîner, et peut transmettre la maladie à toute une unité.
Ce qui a changé, en revanche, c’est le poids politique accordé au refus individuel et c’est cela, bien plus que la question de l’efficacité du vaccin, que reflète la fin de cette obligation
Katrine L. Wallace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.05.2026 à 08:51
Marcus Michelangeli, Lecturer, Environmental Sustainability and Management, Griffith University
Jack Brand, Researcher in Behavioural and Movement Ecology, Swedish University of Agricultural Sciences

La présence croissante de drogues dans les milieux aquatiques n’est plus anecdotique. Une nouvelle étude menée en Suède montre que même à faibles doses, ces substances peuvent perturber les déplacements de poissons et potentiellement fragiliser des espèces déjà sous pression.
Du poisson ou des requins sous cocaïne : l’image semble tout droit sortie d’un scénario hollywoodien, mais la réalité est bien moins divertissante. De plus en plus souvent, les scientifiques détectent de la cocaïne et d’autres drogues puissantes dans les milieux aquatiques et les retrouvent jusque dans le cerveau et le corps des animaux sauvages.
Une étude de 2024 menée au Brésil a fait les gros titres après avoir mis en évidence la présence de cocaïne dans les muscles et le foie de requins sauvages capturés au large de Rio de Janeiro. Si cela peut surprendre, cette découverte reflète un phénomène plus large et en expansion : les drogues consommées par les humains se retrouvent désormais dans les rivières, les lacs et les océans du monde entier.
Dans notre nouvelle étude, publiée récemment dans Current Biology, nous avons cherché à comprendre ce que cela implique pour la faune sauvage.
Nous avons étudié comment des concentrations de cocaïne comparables à celles observées dans l’environnement influencent le comportement des poissons à l’état sauvage. Nous nous sommes également intéressés à une substance appelée benzoylecgonine, principal composé résiduel issu de la dégradation de la cocaïne par l’organisme.
Pour cela, nous avons mené une expérience dans le lac Vättern, en Suède, le deuxième plus grand lac du pays, où nous avons suivi de jeunes saumons atlantiques pendant huit semaines.
À l’aide d’implants chimiques à libération lente, nous avons exposé les poissons soit à la cocaïne, soit à la benzoylecgonine, puis suivi leurs déplacements grâce à la télémétrie acoustique. Cette méthode nous a permis d’observer leur comportement en milieu naturel, plutôt que dans des bassins de laboratoire.
Ce que nous avons observé est frappant. Les poissons exposés à la benzoylecgonine parcouraient jusqu’à 1,9 fois plus de distance par semaine que les poissons non exposés et se dispersaient jusqu’à 12,3 kilomètres plus loin à travers le lac. Les poissons exposés à la cocaïne présentaient une tendance similaire, mais l’effet était plus faible et moins constant.
Comment ces substances se retrouvent-elles dans les environnements aquatiques ?
Après consommation, la cocaïne est rapidement dégradée par l’organisme, principalement en benzoylecgonine. Des composés de ce type – résidus issus de la transformation d’une substance par le corps – sont appelés des métabolites. La drogue initiale comme son métabolite sont ensuite excrétés et rejoignent les systèmes d’eaux usées.
Or, les stations d’épuration ne sont pas conçues pour éliminer complètement ces composés : ils traversent donc les traitements et sont rejetés dans les rivières, les lacs et les eaux côtières.
Ce phénomène n’a rien de localisé. La cocaïne est désormais l’une des drogues illicites les plus fréquemment détectées dans les milieux aquatiques à l’échelle mondiale.
Une analyse globale a mis en évidence des concentrations moyennes dans les eaux de surface d’environ 105 nanogrammes par litre pour la cocaïne et 257 nanogrammes par litre pour la benzoylecgonine, avec des pics atteignant plusieurs milliers de nanogrammes. Si ces niveaux restent faibles, ils suscitent néanmoins des inquiétudes, car ces composés ciblent des systèmes cérébraux partagés par de nombreux animaux : même à faibles doses, ils peuvent donc potentiellement affecter la faune sauvage.
Les changements de comportement comptent parmi les indicateurs les plus précoces et les plus sensibles d’une perturbation environnementale affectant la faune. Ils peuvent influencer des fonctions essentielles, depuis la recherche de nourriture et l’évitement des prédateurs jusqu’aux interactions sociales, à la reproduction et à la survie.
Lorsque des contaminants modifient les comportements, leurs effets peuvent se répercuter bien au-delà de l’individu. De légers changements dans la manière dont les animaux se déplacent, s’alimentent ou réagissent aux menaces peuvent, à plus grande échelle, affecter la dynamique des populations, les interactions entre espèces et le fonctionnement des écosystèmes dans leur ensemble.
Les changements que nous avons observés dans la manière dont les poissons se déplacent dans leur environnement après une exposition à la cocaïne pourraient entraîner une dépense énergétique accrue, une fréquentation d’habitats de moindre qualité ou encore une exposition plus importante au risque de prédation.
Pour des espèces comme le saumon atlantique, déjà soumises aux pressions du changement climatique, de la perte d’habitat et d’autres polluants, même de légères perturbations comportementales peuvent venir aggraver les difficultés auxquelles elles sont confrontées.
L’un des résultats les plus surprenants de notre étude est que la benzoylecgonine a eu un effet plus marqué sur le comportement des poissons que la cocaïne elle-même. C’est un point crucial, car les évaluations des risques environnementaux se concentrent généralement sur les substances consommées par les humains, comme la cocaïne, plutôt que sur celles qu’ils rejettent ensuite, comme la benzoylecgonine.
Or ces métabolites sont souvent plus abondants et plus persistants dans les milieux aquatiques. Nos résultats suggèrent que nous sous-estimons peut-être les risques écologiques liés à ces polluants.
Notre étude s’est concentrée sur le comportement, et non sur les effets à long terme sur la santé. Nous n’avons pas encore évalué si ces changements influencent la survie ou la reproduction.
Cependant, des travaux antérieurs montrent que la cocaïne et des composés apparentés peuvent modifier la chimie du cerveau, accroître le stress oxydant et perturber le métabolisme énergétique chez les animaux aquatiques. Ces processus étant étroitement liés à la santé et à la condition physique, ils laissent entrevoir des effets plus larges.
L’idée de « poissons sous cocaïne » peut faire sourire, mais elle renvoie à un problème bien plus vaste. Les milieux aquatiques sont de plus en plus contaminés par des mélanges complexes de substances d’origine humaine, des médicaments aux drogues illicites. Beaucoup de ces composés sont biologiquement actifs à de très faibles concentrations, et nous commençons à peine à en comprendre les effets.
Marcus Michelangeli travaille pour Griffith University. Il a reçu un financement et un soutien à la recherche du Conseil suédois de la recherche Formas (2022-00503), ainsi que du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre d’une bourse Marie Skłodowska-Curie (101061889) pour mener ces travaux.
Jack Brand travaille pour l’Université suédoise des sciences agricoles et reçoit un financement du Conseil suédois de la recherche Formas (2024-00507). Il occupe également un poste de chercheur invité à l’Institute of Zoology de la Zoological Society of London.
01.05.2026 à 11:08
Andreas Prinzing, Professor
Jörg Müller, Prof. Dr., Julius Maximilian University of Würzburg
Soumen Mallick, Mallick, Julius Maximilian University of Würzburg
Lorsque les chênes sont fortement endommagés par des chenilles une année, ils ouvrent leurs bourgeons plus tard au printemps suivant. Notre équipe internationale de recherche a montré que cette stratégie est très efficace contre leurs prédateurs. Nous venons de publier nos résultats dans la revue Nature Ecology & Evolution.
Au printemps en forêt, de nombreuses chenilles éclosent précisément lorsque les feuilles des arbres sont encore jeunes et tendres. Elles trouvent ainsi une table abondamment garnie.
Si les chênes sont fortement infestés par des chenilles une année donnée, ils réagissent au printemps suivant : ils retardent l’apparition de leurs feuilles de trois jours. Cela est défavorable aux chenilles. Après l’éclosion, elles se retrouvent littéralement face à des assiettes vides, car les feuilles de chêne sont encore bien cachées dans les bourgeons. Cette stratégie est très efficace : chez certaines espèces toutes les chenilles meurent après trois jours sans nourriture. En conséquence, ce stratégie de débourrement retardé diminue les dégâts causés par leur alimentation sur l’arbre de 55 %.
Pour démontrer ces liens, nous avons utilisé des méthodes interdisciplinaires de pointe issues de l’écologie et de la télédétection. Auparavant, les chercheurs devaient observer laborieusement des arbres individuels sur le terrain. Pour cette étude, cependant, une zone de 2 400 kilomètres carrés en Bavière du Nord a été surveillée en continu grâce aux données du satellite Sentinel-1. Ce qui rend ces satellites radar particuliers, c’est qu’ils fournissent des données précises sur l’état des canopées, même sous une épaisse couverture nuageuse.
Nous avons analysé un total de 137 500 observations individuelles sur cinq ans, de 2017 à 2021. Les satellites ont fourni des données avec une résolution de 10×10 mètres par pixel, ce qui correspond approximativement au houppier (la partie d'un arbre constituée d'un ensemble structuré des branches situées au sommet du tronc) d’un arbre unique. Au total, 27 500 pixels de ce type ont été analysés dans 60 zones forestières.
L’année 2019 s’est révélée particulièrement instructive, car la région a connu une invasion massive de la spongieuse (un ravageur des forêts de feuillus). Les capteurs radar ont enregistré précisément quels arbres ont perdu leurs feuilles et comment ils ont réagi l’année suivante.
Les arbres ne réagissent pas seulement à la météo au printemps. Cette tactique de retard est plus efficace pour le chêne qu’une défense chimique, comme les tanins amers présents dans les feuilles. En effet, l’arbre devrait dépenser beaucoup d’énergie pour augmenter sa production de tanins.
Pour la première fois, l’étude explique de manière concluante pourquoi, en moyenne, la forêt ne verdit pas aussi rapidement que les températures pourraient le laisser supposer. Les modèles informatiques antérieurs calculent souvent de manière inexacte l’état des forêts, car ils prennent exclusivement en compte des facteurs climatiques comme la température et ignorent les interactions biologiques entre plantes et insectes.
Les arbres se trouvent dans une sorte de bras de fer évolutif : alors que l’augmentation des températures liée au changement climatique les pousse à produire leurs feuilles de plus en plus tôt, la pression exercée par les insectes herbivores les contraint à retarder ce processus. Un avantage clé de cette stratégie de retard est qu’elle est temporaire et réversible. Comme les arbres ne retardent leur feuillaison qu’après une infestation réelle, les insectes ne peuvent pas s’y adapter de manière permanente. Cette interaction dynamique est un exemple de la grande résilience et capacité d’adaptation des forêts dans un monde en mutation.
Des expériences futures devraient permettre de mieux comprendre l'importance de ces mécanismes pour des patrons expliqués depuis des décennies par d'autres mécanismes, aussi bien que les conséquences pour les interactions des arbres avec leurs symbiontes mycorhiziens et avec les ennemies de leurs ennemies, comme les mésanges et des guêpes parasitoïdes.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.05.2026 à 10:30
Claudine Katan, Directrice de Recherche, physicienne, Centre national de la recherche scientifique (CNRS)
Aditya Mohite, Professor in the Department of Chemical and Biomolecular Engineering with joint positions in Chemistry, Material Science and Nanoengineering, Electrical Engineering, and Applied Physics
George Volonakis, Professeur - Science des matériaux
Jacky Even, Professeur des Universités à l’INSA de Rennes depuis 1999 et membre senior de l’Institut Universitaire de France depuis 2018, INSA Rennes
Grâce aux panneaux solaires en silicium, l’électricité d’origine photovoltaïque est aujourd’hui disponible à faible coût. Pour aller plus loin – récolter plus d’énergie sur les mêmes surfaces pour des coûts réduits, produire plus localement – les scientifiques développent de nouveaux matériaux. Parmi eux, les « pérovskites » sont modulables et compatibles avec le silicium, ce qui les rend particulièrement prometteurs. Où en sont ces nouvelles technologies ? Quel chemin leur reste-t-il à parcourir ?
La filière du silicium est le leader du marché mondial des technologies photovoltaïque, avec 98 % des panneaux vendus. Grâce aux progrès dans le domaine, on dispose aujourd’hui d’électricité solaire déployable à faible coût dans la grande majorité des pays à travers le monde.
La montée en puissance des énergies renouvelables, avec en chef de file celle fondée sur la conversion directe de l’énergie solaire en électricité, légitime encore aujourd’hui le développement de nouvelles technologies photovoltaïques alliant frugalité, efficacité et longévité. Il s’agit d’augmenter encore les rendements de conversion et de minimiser les coûts (impact environnemental, prix de la fabrication, du transport, de l’installation, du recyclage), mais aussi de pouvoir garantir une durée de vie acceptable pour le fabricant, le consommateur et l’environnement.
Une des filières émergentes explorées par des chercheurs, start-up et industriels est celle exploitant les matériaux « pérovskites ». Dans cette communauté en ébullition, diverses stratégies sont développées pour allier de forts rendements et une longue durée de vie.
Dans nos études les plus récentes menées avec nos collaborateurs et publiées dans Science et Nature Synthesis, nous combinons plusieurs approches. La robustesse des nouvelles structures pérovskites est testée dans des conditions d’éclairement drastiques, simulant jusqu’à 15 fois la puissance du soleil. Ces résultats marquent une étape importante qui permet d’envisager de transposer les résultats en laboratoire à des produits industriels.
Alors même que le silicium est devenu un matériau stratégique au cœur de nombreuses technologies électroniques, il risque de devenir une matière première critique (qui présente un risque d’approvisionnement). C’est tout particulièrement le cas en Europe, car la dernière fonderie de silicium active pourrait arrêter sa production, faute de pouvoir résister à la Chine en situation de surcapacité.
Parmi les filières photovoltaïques émergentes, celle des pérovskites fait la course seule en tête, car elle a rejoint en termes de performances (pour des cellules de laboratoire de petite surface, inférieures à un centimètre carré) la filière silicium avec des rendements certifiés supérieurs à 27 %. Les matières premières nécessaires sont disponibles en Europe.
Un de ses principaux atouts est d’être compatible avec les panneaux solaires silicium traditionnels, car ces deux technologies absorbent la lumière du soleil de façon complémentaire. Ainsi, en empilant une cellule silicium et une cellule pérovskite, on obtient une unique cellule dite « tandem » – qui dépasse aujourd’hui les 35 % pour des tandems de laboratoire et 27 % pour des modules de plus de 14 000 centimètres carrés (l’équivalent de panneaux carrés de 1,2 mètre de côté), permettant aux industriels – y compris en France — d’envisager sérieusement leur commercialisation.
En augmentant l’électricité produite pour une même surface de panneaux solaires, s’ouvre une perspective de retours sur investissements beaucoup plus rapides, qui pourrait encore booster le déploiement du photovoltaïque.
C’est pourquoi Daniel Lincot, membre de l’Académie des technologies et fervent défenseur de l’énergie solaire pour la transition énergétique et écologique, n’hésite pas à dresser un parallèle avec l’augmentation énorme et inattendue des vitesses des bateaux à voile au cours des dernières décennies grâce à l’ajout de surfaces portantes immergées (foils), en disant « les pérovskites sont les foils du silicium ».
Si le potentiel des matériaux pérovskites pour augmenter fortement les rendements des dispositifs photovoltaïques en silicium n’est désormais plus à démontrer, une dégradation rapide des performances en fonctionnement de ces nouvelles cellules et panneaux solaires est le verrou principal empêchant les pérovskites d’entrer sur le marché des panneaux solaires. Pour le lever, les scientifiques développent différentes stratégies pour mieux organiser la matière à l’échelle microscopique.
Le terme générique pérovskite désigne une structure cristalline caractéristique à l’échelle atomique avec des octaèdres partageant leurs sommets formant un réseau tridimensionnel (3D). La composition chimique des matériaux présentant cette structure varie avec notamment le titanate de calcium, un minéral découvert dès 1839 en milieu naturel et qui comprend des atomes d’oxygène (en bleu sur l’image).
Les compositions pertinentes pour le photovoltaïque et reconnues comme une nouvelle classe de semiconducteurs, sont, quant à elles, synthétiques (c’est-à-dire fabriquées par les chimistes) : l’oxygène est par exemple substitué par l’iode alors que le plomb (couleur or) occupe le centre de l’octaèdre, tandis qu’un atome tel que le Césium, ou une petite molécule organique (en rose) perd un électron (on parle de cation inorganique ou organique) et s’insère dans la cavité de la structure cristalline entre les octaèdres.
Si ce cation est trop petit ou au contraire trop volumineux, le réseau préfère adopter une autre structure cristalline qui n’aura pas les propriétés requises pour produire et conduire ensuite le courant électrique au sein d’une cellule solaire. Ceci se traduit par un changement de couleur, le matériau passant de la phase pérovskite semi-conductrice dite « noire », et donc fortement absorbante pour les longueurs d’onde visibles du spectre solaire (inférieures à 0,8 micromètre), à une phase non-pérovskite dite « jaune », signe que la gamme d’énergie des photons du soleil que le matériau est capable d’absorber est beaucoup plus restreinte (inférieures à 0,5 micromètre).
Ce changement de couleur est également observé lorsque le matériau pérovskite se dégrade, ce qui réduit fortement l’efficacité de conversion de l’énergie solaire. Depuis une dizaine d’années, la communauté de recherche s’efforce donc de comprendre les mécanismes de dégradation — et bien sûr, de les circonscrire.
Une des principales stratégies pour augmenter l’efficacité de conversion exploite des matériaux pérovskites qui sont en fait des mélanges de différents types de pérovskites synthétiques 3D. Malheureusement, ces alliages sont sujets à des phénomènes de démixtion et/ou à des déformations du réseau cristallin, notamment sous irradiation lumineuse – ce qui conduit à une dégradation irréversible. De plus, certaines de ces compositions 3D sont très sensibles à l’humidité. Enfin, on observe aussi des problèmes de stabilité à l’échelle du dispositif (cellule et panneau solaire), particulièrement en conditions opérationnelles (sous irradiation lumineuse ou lorsqu’un courant traverse la cellule solaire).
Au sein de la communauté internationale, plusieurs stratégies ont été inventées pour pallier ces problèmes. Par exemple, l’ingénierie des ligands a pris une place prépondérante avec l’exploration de divers acides qui viennent « passiver » les interfaces (c’est-à-dire empêcher la formation de « défauts » qui capturent les électrons et limitent donc la génération d’un courant électrique).
Un autre exemple est la « stratégie du millefeuille », explorée dès les années 90 : il s’agit d’une alternance périodique où la crème correspond à la couche organique et la pâte à la couche pérovskite. Des cellules solaires contenant ces pérovskites lamellaires ont atteint dès 2016 des stabilités record en fonctionnement.
En associant des pérovskites 2D (millefeuille) et 3D au sein d’une même cellule solaire, on combine la stabilité des premières aux rendements de conversion record des deuxièmes. En particulier, un design basé sur une ingénierie très poussée des hétérostructures 2D/3D a représenté l’état de l’art en 2022 et en 2024 en matière de stabilité pour une cellule solaire pérovskite en fonctionnement.
Aujourd’hui, nos tout derniers travaux publiés en ce printemps 2026 dans Science nous rapprochent encore plus de la stabilité requise en vue d’une commercialisation. En comprenant par quel chemin le matériau pérovskite synthétique passe de la phase noire à la phase jaune, l’ajout d’un additif spécifique a permis de soumettre les cellules 2D/3D à des tests encore plus drastiques : un flux lumineux équivalent à 15 soleils !
En parallèle, la fabrication récente de pérovskites 2D multicouches ne présentant aucune distorsion structurale et permettant un transfert des charges électriques générées par le soleil sur des distances records (au-delà de 2 micromètres, de l’ordre de 2 à 3 fois le diamètre d’un cheveu) permet pour la première fois d’envisager des dépôts de couches 2D et 3D avec des épaisseurs similaires de l’ordre de 300 à 500 nanomètres. Une telle épaisseur pour la partie 2D représente une barrière robuste à la pénétration d’espèces chimiques qui autrement risqueraient de détériorer la structure. Avec une couche épaisse, la partie 2D pourra aussi contribuer à la production d’électricité. De plus, les dernières couches 2D synthétisées possèdent des seuils d’absorption en énergie suffisamment bas pour qu’il soit envisageable de les tester en association avec le silicium dans des structures tandem en s’affranchissant totalement de la partie 3D.
Le projet SURFIN (ANR-23-CE09-0001) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Claudine Katan est membre du GDR HPERO.
George Volonakis a reçu des financements de l'Agence national de la recherche pare le projet de CPJ et le projet SURFIN (ANR-23-CE09-0001).
Jacky Even est membre du GDR HPERO et a reçu des financements de l'institut universitaire de France.
Aditya Mohite ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.