02.05.2026 à 08:55
Katrine L. Wallace, Assistant Professor of Epidemiology and Biostatistics, University of Illinois Chicago

De George Washington à la Seconde Guerre mondiale, la vaccination a été pensée comme un outil stratégique face aux maladies capables de décimer les troupes. Aujourd’hui, cette logique historique entre en tension avec la montée des revendications individuelles.
Pour la première fois depuis près de 80 ans, les militaires états-uniens ne seront plus tenus de recevoir le vaccin annuel contre la grippe. Le secrétaire à la Défense Pete Hegseth a annoncé ce changement le 22 avril 2026. Invoquant l’autonomie médicale et la liberté religieuse, il a qualifié cette obligation de « trop large et dénuée de rationalité », déclarant aux soldats que « votre corps, votre foi et vos convictions ne sont pas négociables ».
L’obligation vaccinale contre la grippe à laquelle Pete Hegseth a mis fin était en vigueur depuis 1945, avec une brève interruption en 1949. Elle s’inscrivait dans une tradition d’obligations vaccinales militaires presque aussi ancienne que les États-Unis eux-mêmes.
En tant qu’épidémiologiste spécialisée dans les maladies évitables par la vaccination, je trouve la fin de cette obligation moins marquante pour ses effets immédiats que pour ce qu’elle révèle. Pendant la majeure partie de l’histoire américaine, les commandants militaires partaient du principe que les maladies infectieuses pouvaient leur faire perdre une guerre, raison pour laquelle la vaccination relevait de la préparation opérationnelle plutôt que d’un choix individuel.
La première obligation vaccinale militaire américaine est antérieure à la Constitution. À l’hiver 1777, le général George Washington ordonne l’inoculation massive de l’armée continentale contre la variole.
Sa décision n’était pas idéologique – elle était stratégique. L’année précédente, une épidémie de variole avait ravagé les troupes américaines près de Québec, contribuant à l’effondrement de la campagne du Nord. John Adams écrivit à sa femme Abigail que la variole tuait dix soldats pour un seul tombé au combat.
L’inoculation en 1777 comportait elle-même des risques. La procédure, appelée variolisation, consistait à infecter volontairement un soldat avec une faible dose du virus de la variole afin de provoquer une immunité. George Washington a fait le pari qu’il valait mieux perdre quelques hommes à cause de l’inoculation que perdre une guerre face au virus. Des historiens ont attribué à cette décision le salut de l’armée continentale.
Ce schéma s’est maintenu pendant des siècles : lorsqu’une maladie infectieuse risquait de mettre plus de soldats hors de combat que les tirs ennemis, l’armée imposait des mesures de protection.
Les troupes américaines ont été vaccinées contre la variole de la guerre de 1812 jusqu’à la Seconde Guerre mondiale. Pendant la Première Guerre mondiale, l’armée a ajouté la vaccination contre la typhoïde. Lors de la Seconde Guerre mondiale, elle a élargi les obligations vaccinales pour inclure également le tétanos, le choléra, la diphtérie, la peste, la fièvre jaune et, en 1945, la grippe.
L’obligation vaccinale contre la grippe trouve son origine dans les expériences militaires lors de la pandémie de grippe de 1918. Ce printemps-là, une nouvelle souche de grippe s’est propagée dans des camps d’entraînement militaires surpeuplés avant de gagner l’Europe avec les troupes américaines. Environ 45 000 soldats américains sont morts de la grippe pendant la Première Guerre mondiale, presque autant que les quelque 53 000 tués au combat.
La pandémie de 1918 a fait la démonstration qu’un virus respiratoire pouvait paralyser une armée. Aussi, en 1941, alors que le pays se préparait à entrer dans un nouveau conflit mondial, l’armée américaine a-t-elle mis en place une commission sur la grippe qui s’est associée à l’université du Michigan pour développer le premier vaccin contre cette infection. Des essais cliniques menés sur des recrues ont montré qu’il réduisait de 85 % l’incidence de la maladie, et en 1945, l’armée a rendu la vaccination obligatoire. Environ 7 millions de militaires ont été vaccinés cette année-là.
L’obligation a été brièvement suspendue en 1949, lorsque les scientifiques ont compris que le vaccin devait être régulièrement mis à jour en raison de l’évolution du virus. Une fois les formulations adaptées de manière saisonnière, l’obligation a été rétablie au début des années 1950 et est restée en vigueur sans interruption jusqu’au changement de politique décidé par Pete Hegseth.
Pendant des décennies, les obligations vaccinales faisaient partie intégrante et peu contestée de la vie militaire. La pandémie de Covid-19 a changé la donne.
En août 2021, tous les militaires ont été sommés de se faire vacciner contre le Covid-19. Plus de 98 % des soldats en service actif ont obtempéré, mais cette obligation est devenue un point de crispation. Plus de 8 000 militaires ont été renvoyés de force pour avoir refusé le vaccin.
En 2023, le Congrès a adopté une loi obligeant Le Pentagone à annuler l’obligation vaccinale contre le Covid-19. Ce revirement a reconfiguré les enjeux politiques autour des obligations vaccinales dans l’armée. En janvier 2025, le président Donald Trump a ordonné la réintégration, avec indemnités rétroactives, des militaires renvoyés dans ce cadre.
En annonçant la fin de l’obligation vaccinale contre la grippe, Pete Hegseth s’est largement appuyé sur le vocabulaire de la « liberté médicale », issu des débats autour des vaccins contre le Covid-19, plutôt que sur de nouvelles données concernant la grippe ou l’efficacité du vaccin. Le mouvement pour la liberté médicale s’oppose à l’intervention de l’État dans ce que ses partisans considèrent comme des décisions de santé personnelles, y compris des recommandations de santé publique telles que les obligations vaccinales, le port du masque ou la distanciation sociale.
Les critiques de l’obligation vaccinale contre la grippe dans l’armée avancent que la grippe constitue aujourd’hui une menace plus modérée qu’en 1918, que les militaires sont en meilleure santé que la population générale et que, pour un virus saisonnier, le choix individuel devrait primer sur la logique de santé publique.
L’épidémiologie raconte une autre histoire.
Même si l’intensité des saisons grippales varie, le virus mute de manière si imprévisible que des pandémies comme celles de 1918, 1957, 1968 et 2009 restent une possibilité récurrente. La grippe continue d’ailleurs de causer chaque année des hospitalisations et des décès par dizaines de milliers aux États-Unis. Les Centers for Disease Control and Prevention estiment que le vaccin contre la grippe a ainsi évité environ 180 000 hospitalisations et 12 000 décès lors de la saison 2024-2025.
L’armée opère précisément dans des conditions qui favorisent la propagation des virus respiratoires : centres d’entraînement, casernes, navires ou sous-marins où les individus vivent en promiscuité.
La logique qui a conduit George Washington en 1777 et le Surgeon General de l’armée en 1945 à imposer la vaccination n’a, au fond, guère changé. Un soldat malade ne peut ni être déployé, ni s’entraîner, et peut transmettre la maladie à toute une unité.
Ce qui a changé, en revanche, c’est le poids politique accordé au refus individuel et c’est cela, bien plus que la question de l’efficacité du vaccin, que reflète la fin de cette obligation
Katrine L. Wallace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.05.2026 à 08:51
Marcus Michelangeli, Lecturer, Environmental Sustainability and Management, Griffith University
Jack Brand, Researcher in Behavioural and Movement Ecology, Swedish University of Agricultural Sciences

La présence croissante de drogues dans les milieux aquatiques n’est plus anecdotique. Une nouvelle étude menée en Suède montre que même à faibles doses, ces substances peuvent perturber les déplacements de poissons et potentiellement fragiliser des espèces déjà sous pression.
Du poisson ou des requins sous cocaïne : l’image semble tout droit sortie d’un scénario hollywoodien, mais la réalité est bien moins divertissante. De plus en plus souvent, les scientifiques détectent de la cocaïne et d’autres drogues puissantes dans les milieux aquatiques et les retrouvent jusque dans le cerveau et le corps des animaux sauvages.
Une étude de 2024 menée au Brésil a fait les gros titres après avoir mis en évidence la présence de cocaïne dans les muscles et le foie de requins sauvages capturés au large de Rio de Janeiro. Si cela peut surprendre, cette découverte reflète un phénomène plus large et en expansion : les drogues consommées par les humains se retrouvent désormais dans les rivières, les lacs et les océans du monde entier.
Dans notre nouvelle étude, publiée récemment dans Current Biology, nous avons cherché à comprendre ce que cela implique pour la faune sauvage.
Nous avons étudié comment des concentrations de cocaïne comparables à celles observées dans l’environnement influencent le comportement des poissons à l’état sauvage. Nous nous sommes également intéressés à une substance appelée benzoylecgonine, principal composé résiduel issu de la dégradation de la cocaïne par l’organisme.
Pour cela, nous avons mené une expérience dans le lac Vättern, en Suède, le deuxième plus grand lac du pays, où nous avons suivi de jeunes saumons atlantiques pendant huit semaines.
À l’aide d’implants chimiques à libération lente, nous avons exposé les poissons soit à la cocaïne, soit à la benzoylecgonine, puis suivi leurs déplacements grâce à la télémétrie acoustique. Cette méthode nous a permis d’observer leur comportement en milieu naturel, plutôt que dans des bassins de laboratoire.
Ce que nous avons observé est frappant. Les poissons exposés à la benzoylecgonine parcouraient jusqu’à 1,9 fois plus de distance par semaine que les poissons non exposés et se dispersaient jusqu’à 12,3 kilomètres plus loin à travers le lac. Les poissons exposés à la cocaïne présentaient une tendance similaire, mais l’effet était plus faible et moins constant.
Comment ces substances se retrouvent-elles dans les environnements aquatiques ?
Après consommation, la cocaïne est rapidement dégradée par l’organisme, principalement en benzoylecgonine. Des composés de ce type – résidus issus de la transformation d’une substance par le corps – sont appelés des métabolites. La drogue initiale comme son métabolite sont ensuite excrétés et rejoignent les systèmes d’eaux usées.
Or, les stations d’épuration ne sont pas conçues pour éliminer complètement ces composés : ils traversent donc les traitements et sont rejetés dans les rivières, les lacs et les eaux côtières.
Ce phénomène n’a rien de localisé. La cocaïne est désormais l’une des drogues illicites les plus fréquemment détectées dans les milieux aquatiques à l’échelle mondiale.
Une analyse globale a mis en évidence des concentrations moyennes dans les eaux de surface d’environ 105 nanogrammes par litre pour la cocaïne et 257 nanogrammes par litre pour la benzoylecgonine, avec des pics atteignant plusieurs milliers de nanogrammes. Si ces niveaux restent faibles, ils suscitent néanmoins des inquiétudes, car ces composés ciblent des systèmes cérébraux partagés par de nombreux animaux : même à faibles doses, ils peuvent donc potentiellement affecter la faune sauvage.
Les changements de comportement comptent parmi les indicateurs les plus précoces et les plus sensibles d’une perturbation environnementale affectant la faune. Ils peuvent influencer des fonctions essentielles, depuis la recherche de nourriture et l’évitement des prédateurs jusqu’aux interactions sociales, à la reproduction et à la survie.
Lorsque des contaminants modifient les comportements, leurs effets peuvent se répercuter bien au-delà de l’individu. De légers changements dans la manière dont les animaux se déplacent, s’alimentent ou réagissent aux menaces peuvent, à plus grande échelle, affecter la dynamique des populations, les interactions entre espèces et le fonctionnement des écosystèmes dans leur ensemble.
Les changements que nous avons observés dans la manière dont les poissons se déplacent dans leur environnement après une exposition à la cocaïne pourraient entraîner une dépense énergétique accrue, une fréquentation d’habitats de moindre qualité ou encore une exposition plus importante au risque de prédation.
Pour des espèces comme le saumon atlantique, déjà soumises aux pressions du changement climatique, de la perte d’habitat et d’autres polluants, même de légères perturbations comportementales peuvent venir aggraver les difficultés auxquelles elles sont confrontées.
L’un des résultats les plus surprenants de notre étude est que la benzoylecgonine a eu un effet plus marqué sur le comportement des poissons que la cocaïne elle-même. C’est un point crucial, car les évaluations des risques environnementaux se concentrent généralement sur les substances consommées par les humains, comme la cocaïne, plutôt que sur celles qu’ils rejettent ensuite, comme la benzoylecgonine.
Or ces métabolites sont souvent plus abondants et plus persistants dans les milieux aquatiques. Nos résultats suggèrent que nous sous-estimons peut-être les risques écologiques liés à ces polluants.
Notre étude s’est concentrée sur le comportement, et non sur les effets à long terme sur la santé. Nous n’avons pas encore évalué si ces changements influencent la survie ou la reproduction.
Cependant, des travaux antérieurs montrent que la cocaïne et des composés apparentés peuvent modifier la chimie du cerveau, accroître le stress oxydant et perturber le métabolisme énergétique chez les animaux aquatiques. Ces processus étant étroitement liés à la santé et à la condition physique, ils laissent entrevoir des effets plus larges.
L’idée de « poissons sous cocaïne » peut faire sourire, mais elle renvoie à un problème bien plus vaste. Les milieux aquatiques sont de plus en plus contaminés par des mélanges complexes de substances d’origine humaine, des médicaments aux drogues illicites. Beaucoup de ces composés sont biologiquement actifs à de très faibles concentrations, et nous commençons à peine à en comprendre les effets.
Marcus Michelangeli travaille pour Griffith University. Il a reçu un financement et un soutien à la recherche du Conseil suédois de la recherche Formas (2022-00503), ainsi que du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre d’une bourse Marie Skłodowska-Curie (101061889) pour mener ces travaux.
Jack Brand travaille pour l’Université suédoise des sciences agricoles et reçoit un financement du Conseil suédois de la recherche Formas (2024-00507). Il occupe également un poste de chercheur invité à l’Institute of Zoology de la Zoological Society of London.
01.05.2026 à 11:08
Andreas Prinzing, Professor
Jörg Müller, Prof. Dr., Julius Maximilian University of Würzburg
Soumen Mallick, Mallick, Julius Maximilian University of Würzburg
Lorsque les chênes sont fortement endommagés par des chenilles une année, ils ouvrent leurs bourgeons plus tard au printemps suivant. Notre équipe internationale de recherche a montré que cette stratégie est très efficace contre leurs prédateurs. Nous venons de publier nos résultats dans la revue Nature Ecology & Evolution.
Au printemps en forêt, de nombreuses chenilles éclosent précisément lorsque les feuilles des arbres sont encore jeunes et tendres. Elles trouvent ainsi une table abondamment garnie.
Si les chênes sont fortement infestés par des chenilles une année donnée, ils réagissent au printemps suivant : ils retardent l’apparition de leurs feuilles de trois jours. Cela est défavorable aux chenilles. Après l’éclosion, elles se retrouvent littéralement face à des assiettes vides, car les feuilles de chêne sont encore bien cachées dans les bourgeons. Cette stratégie est très efficace : chez certaines espèces toutes les chenilles meurent après trois jours sans nourriture. En conséquence, ce stratégie de débourrement retardé diminue les dégâts causés par leur alimentation sur l’arbre de 55 %.
Pour démontrer ces liens, nous avons utilisé des méthodes interdisciplinaires de pointe issues de l’écologie et de la télédétection. Auparavant, les chercheurs devaient observer laborieusement des arbres individuels sur le terrain. Pour cette étude, cependant, une zone de 2 400 kilomètres carrés en Bavière du Nord a été surveillée en continu grâce aux données du satellite Sentinel-1. Ce qui rend ces satellites radar particuliers, c’est qu’ils fournissent des données précises sur l’état des canopées, même sous une épaisse couverture nuageuse.
Nous avons analysé un total de 137 500 observations individuelles sur cinq ans, de 2017 à 2021. Les satellites ont fourni des données avec une résolution de 10×10 mètres par pixel, ce qui correspond approximativement au houppier (la partie d'un arbre constituée d'un ensemble structuré des branches situées au sommet du tronc) d’un arbre unique. Au total, 27 500 pixels de ce type ont été analysés dans 60 zones forestières.
L’année 2019 s’est révélée particulièrement instructive, car la région a connu une invasion massive de la spongieuse (un ravageur des forêts de feuillus). Les capteurs radar ont enregistré précisément quels arbres ont perdu leurs feuilles et comment ils ont réagi l’année suivante.
Les arbres ne réagissent pas seulement à la météo au printemps. Cette tactique de retard est plus efficace pour le chêne qu’une défense chimique, comme les tanins amers présents dans les feuilles. En effet, l’arbre devrait dépenser beaucoup d’énergie pour augmenter sa production de tanins.
Pour la première fois, l’étude explique de manière concluante pourquoi, en moyenne, la forêt ne verdit pas aussi rapidement que les températures pourraient le laisser supposer. Les modèles informatiques antérieurs calculent souvent de manière inexacte l’état des forêts, car ils prennent exclusivement en compte des facteurs climatiques comme la température et ignorent les interactions biologiques entre plantes et insectes.
Les arbres se trouvent dans une sorte de bras de fer évolutif : alors que l’augmentation des températures liée au changement climatique les pousse à produire leurs feuilles de plus en plus tôt, la pression exercée par les insectes herbivores les contraint à retarder ce processus. Un avantage clé de cette stratégie de retard est qu’elle est temporaire et réversible. Comme les arbres ne retardent leur feuillaison qu’après une infestation réelle, les insectes ne peuvent pas s’y adapter de manière permanente. Cette interaction dynamique est un exemple de la grande résilience et capacité d’adaptation des forêts dans un monde en mutation.
Des expériences futures devraient permettre de mieux comprendre l'importance de ces mécanismes pour des patrons expliqués depuis des décennies par d'autres mécanismes, aussi bien que les conséquences pour les interactions des arbres avec leurs symbiontes mycorhiziens et avec les ennemies de leurs ennemies, comme les mésanges et des guêpes parasitoïdes.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.05.2026 à 10:30
Claudine Katan, Directrice de Recherche, physicienne, Centre national de la recherche scientifique (CNRS)
Aditya Mohite, Professor in the Department of Chemical and Biomolecular Engineering with joint positions in Chemistry, Material Science and Nanoengineering, Electrical Engineering, and Applied Physics
George Volonakis, Professeur - Science des matériaux
Jacky Even, Professeur des Universités à l’INSA de Rennes depuis 1999 et membre senior de l’Institut Universitaire de France depuis 2018, INSA Rennes
Grâce aux panneaux solaires en silicium, l’électricité d’origine photovoltaïque est aujourd’hui disponible à faible coût. Pour aller plus loin – récolter plus d’énergie sur les mêmes surfaces pour des coûts réduits, produire plus localement – les scientifiques développent de nouveaux matériaux. Parmi eux, les « pérovskites » sont modulables et compatibles avec le silicium, ce qui les rend particulièrement prometteurs. Où en sont ces nouvelles technologies ? Quel chemin leur reste-t-il à parcourir ?
La filière du silicium est le leader du marché mondial des technologies photovoltaïque, avec 98 % des panneaux vendus. Grâce aux progrès dans le domaine, on dispose aujourd’hui d’électricité solaire déployable à faible coût dans la grande majorité des pays à travers le monde.
La montée en puissance des énergies renouvelables, avec en chef de file celle fondée sur la conversion directe de l’énergie solaire en électricité, légitime encore aujourd’hui le développement de nouvelles technologies photovoltaïques alliant frugalité, efficacité et longévité. Il s’agit d’augmenter encore les rendements de conversion et de minimiser les coûts (impact environnemental, prix de la fabrication, du transport, de l’installation, du recyclage), mais aussi de pouvoir garantir une durée de vie acceptable pour le fabricant, le consommateur et l’environnement.
Une des filières émergentes explorées par des chercheurs, start-up et industriels est celle exploitant les matériaux « pérovskites ». Dans cette communauté en ébullition, diverses stratégies sont développées pour allier de forts rendements et une longue durée de vie.
Dans nos études les plus récentes menées avec nos collaborateurs et publiées dans Science et Nature Synthesis, nous combinons plusieurs approches. La robustesse des nouvelles structures pérovskites est testée dans des conditions d’éclairement drastiques, simulant jusqu’à 15 fois la puissance du soleil. Ces résultats marquent une étape importante qui permet d’envisager de transposer les résultats en laboratoire à des produits industriels.
Alors même que le silicium est devenu un matériau stratégique au cœur de nombreuses technologies électroniques, il risque de devenir une matière première critique (qui présente un risque d’approvisionnement). C’est tout particulièrement le cas en Europe, car la dernière fonderie de silicium active pourrait arrêter sa production, faute de pouvoir résister à la Chine en situation de surcapacité.
Parmi les filières photovoltaïques émergentes, celle des pérovskites fait la course seule en tête, car elle a rejoint en termes de performances (pour des cellules de laboratoire de petite surface, inférieures à un centimètre carré) la filière silicium avec des rendements certifiés supérieurs à 27 %. Les matières premières nécessaires sont disponibles en Europe.
Un de ses principaux atouts est d’être compatible avec les panneaux solaires silicium traditionnels, car ces deux technologies absorbent la lumière du soleil de façon complémentaire. Ainsi, en empilant une cellule silicium et une cellule pérovskite, on obtient une unique cellule dite « tandem » – qui dépasse aujourd’hui les 35 % pour des tandems de laboratoire et 27 % pour des modules de plus de 14 000 centimètres carrés (l’équivalent de panneaux carrés de 1,2 mètre de côté), permettant aux industriels – y compris en France — d’envisager sérieusement leur commercialisation.
En augmentant l’électricité produite pour une même surface de panneaux solaires, s’ouvre une perspective de retours sur investissements beaucoup plus rapides, qui pourrait encore booster le déploiement du photovoltaïque.
C’est pourquoi Daniel Lincot, membre de l’Académie des technologies et fervent défenseur de l’énergie solaire pour la transition énergétique et écologique, n’hésite pas à dresser un parallèle avec l’augmentation énorme et inattendue des vitesses des bateaux à voile au cours des dernières décennies grâce à l’ajout de surfaces portantes immergées (foils), en disant « les pérovskites sont les foils du silicium ».
Si le potentiel des matériaux pérovskites pour augmenter fortement les rendements des dispositifs photovoltaïques en silicium n’est désormais plus à démontrer, une dégradation rapide des performances en fonctionnement de ces nouvelles cellules et panneaux solaires est le verrou principal empêchant les pérovskites d’entrer sur le marché des panneaux solaires. Pour le lever, les scientifiques développent différentes stratégies pour mieux organiser la matière à l’échelle microscopique.
Le terme générique pérovskite désigne une structure cristalline caractéristique à l’échelle atomique avec des octaèdres partageant leurs sommets formant un réseau tridimensionnel (3D). La composition chimique des matériaux présentant cette structure varie avec notamment le titanate de calcium, un minéral découvert dès 1839 en milieu naturel et qui comprend des atomes d’oxygène (en bleu sur l’image).
Les compositions pertinentes pour le photovoltaïque et reconnues comme une nouvelle classe de semiconducteurs, sont, quant à elles, synthétiques (c’est-à-dire fabriquées par les chimistes) : l’oxygène est par exemple substitué par l’iode alors que le plomb (couleur or) occupe le centre de l’octaèdre, tandis qu’un atome tel que le Césium, ou une petite molécule organique (en rose) perd un électron (on parle de cation inorganique ou organique) et s’insère dans la cavité de la structure cristalline entre les octaèdres.
Si ce cation est trop petit ou au contraire trop volumineux, le réseau préfère adopter une autre structure cristalline qui n’aura pas les propriétés requises pour produire et conduire ensuite le courant électrique au sein d’une cellule solaire. Ceci se traduit par un changement de couleur, le matériau passant de la phase pérovskite semi-conductrice dite « noire », et donc fortement absorbante pour les longueurs d’onde visibles du spectre solaire (inférieures à 0,8 micromètre), à une phase non-pérovskite dite « jaune », signe que la gamme d’énergie des photons du soleil que le matériau est capable d’absorber est beaucoup plus restreinte (inférieures à 0,5 micromètre).
Ce changement de couleur est également observé lorsque le matériau pérovskite se dégrade, ce qui réduit fortement l’efficacité de conversion de l’énergie solaire. Depuis une dizaine d’années, la communauté de recherche s’efforce donc de comprendre les mécanismes de dégradation — et bien sûr, de les circonscrire.
Une des principales stratégies pour augmenter l’efficacité de conversion exploite des matériaux pérovskites qui sont en fait des mélanges de différents types de pérovskites synthétiques 3D. Malheureusement, ces alliages sont sujets à des phénomènes de démixtion et/ou à des déformations du réseau cristallin, notamment sous irradiation lumineuse – ce qui conduit à une dégradation irréversible. De plus, certaines de ces compositions 3D sont très sensibles à l’humidité. Enfin, on observe aussi des problèmes de stabilité à l’échelle du dispositif (cellule et panneau solaire), particulièrement en conditions opérationnelles (sous irradiation lumineuse ou lorsqu’un courant traverse la cellule solaire).
Au sein de la communauté internationale, plusieurs stratégies ont été inventées pour pallier ces problèmes. Par exemple, l’ingénierie des ligands a pris une place prépondérante avec l’exploration de divers acides qui viennent « passiver » les interfaces (c’est-à-dire empêcher la formation de « défauts » qui capturent les électrons et limitent donc la génération d’un courant électrique).
Un autre exemple est la « stratégie du millefeuille », explorée dès les années 90 : il s’agit d’une alternance périodique où la crème correspond à la couche organique et la pâte à la couche pérovskite. Des cellules solaires contenant ces pérovskites lamellaires ont atteint dès 2016 des stabilités record en fonctionnement.
En associant des pérovskites 2D (millefeuille) et 3D au sein d’une même cellule solaire, on combine la stabilité des premières aux rendements de conversion record des deuxièmes. En particulier, un design basé sur une ingénierie très poussée des hétérostructures 2D/3D a représenté l’état de l’art en 2022 et en 2024 en matière de stabilité pour une cellule solaire pérovskite en fonctionnement.
Aujourd’hui, nos tout derniers travaux publiés en ce printemps 2026 dans Science nous rapprochent encore plus de la stabilité requise en vue d’une commercialisation. En comprenant par quel chemin le matériau pérovskite synthétique passe de la phase noire à la phase jaune, l’ajout d’un additif spécifique a permis de soumettre les cellules 2D/3D à des tests encore plus drastiques : un flux lumineux équivalent à 15 soleils !
En parallèle, la fabrication récente de pérovskites 2D multicouches ne présentant aucune distorsion structurale et permettant un transfert des charges électriques générées par le soleil sur des distances records (au-delà de 2 micromètres, de l’ordre de 2 à 3 fois le diamètre d’un cheveu) permet pour la première fois d’envisager des dépôts de couches 2D et 3D avec des épaisseurs similaires de l’ordre de 300 à 500 nanomètres. Une telle épaisseur pour la partie 2D représente une barrière robuste à la pénétration d’espèces chimiques qui autrement risqueraient de détériorer la structure. Avec une couche épaisse, la partie 2D pourra aussi contribuer à la production d’électricité. De plus, les dernières couches 2D synthétisées possèdent des seuils d’absorption en énergie suffisamment bas pour qu’il soit envisageable de les tester en association avec le silicium dans des structures tandem en s’affranchissant totalement de la partie 3D.
Le projet SURFIN (ANR-23-CE09-0001) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Claudine Katan est membre du GDR HPERO.
George Volonakis a reçu des financements de l'Agence national de la recherche pare le projet de CPJ et le projet SURFIN (ANR-23-CE09-0001).
Jacky Even est membre du GDR HPERO et a reçu des financements de l'institut universitaire de France.
Aditya Mohite ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2026 à 14:50
Jean Pralong, Professeur de Gestion des Ressources Humaines, EM Normandie
Les Français ne travaillent pas assez. La valeur travail recule… Ces lieux communs qui tournent en boucle dans le débat public à gauche – pour s’en féliciter- comme à droite – pour le déplorer – alors même que les faits prouvent le contraire avec une étonnante régularité. Et si cette idée reçue développée dans les années 80 était la première fake news qui empêche de poser la question du travail de manière vraiment pertinente ?
Grande démission, quiet quitting, paresse supposée des nouvelles générations, crise du sens… les Français se seraient désengagés du travail. Le diagnostic a pourtant quarante ans. Il est né au début des années 1980, dans le moment néolibéral inauguré par Ronald Reagan et Margaret Thatcher, et n’a jamais désarmé depuis. Les enquêtes longues qui mesurent ce que les Français disent du travail le contredisent avec la même constance. Apparamment en vain.
Au tournant des années 1980, deux discours sur la « crise du travail » émergent simultanément, dans des registres opposés. D’un côté, une critique intellectuelle annonce la fin de la société du travail. André Gorz publie Adieux au prolétariat en 1980, Roger Sue Vers une société du temps libre ? en 1982, Gilles Lipovetsky L’ère du vide en 1983. La séquence se prolongera quinze ans plus tard avec Jeremy Rifkin (La fin du travail, 1996). Le travail-valeur s’effacerait derrière l’individualisme contemporain : la critique vient de la gauche intellectuelle, elle accompagne la sortie du fordisme.
De l’autre s’installe un discours patronal et managérial, dans le sillage immédiat de l’élection de Margaret Thatcher (1979) et de Ronald Reagan (1981) : les salariés occidentaux ne travailleraient pas assez, leur productivité décrocherait face aux concurrents asiatiques, les rigidités du droit du travail nous tueraient. Ezra Vogel publie Japan as Number One en 1979 ; William Ouchi Theory Z en 1981 ; Tom Peters et Robert Waterman In Search of Excellence en 1982. Le Japon devient le miroir où l’Occident se regarde et se découvre déficitaire.
À lire aussi : Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ?
En France, le tournant de la rigueur de 1983 signe l’alignement de la gauche au pouvoir sur cette grammaire compétitive ; le patronat, par la voix d’Yvon Gattaz puis de ses successeurs au CNPF, fait du « jamais assez » sa rhétorique principale. Le salarié français n’est jamais assez conscient des enjeux économiques, jamais assez engagé, jamais assez productif. « Pendant que vous paressez, les Japonais travaillent » est le cliché des années 1980. L’Allemagne remplacera le Japon dans les années 1990, qui sera ensuite remplacé par la Corée, puis la Chine… Si le pays avec lequel on compare la France change ; la conclusion reste la même : un déficit permanent du salarié français, à mesurer à l’aune d’un autre toujours plus laborieux.
Si les deux récits induisent des politiques opposées, ils convergent sur une intuition partagée : le rapport au travail aurait changé. C’est cette intuition qui s’installe pour quarante ans.
Or, il existe un dispositif, l’European Values Study (EVS), qui mesure précisément ce que les Français disent du travail dans leur vie, et qui le mesure à intervalles réguliers depuis 1981. Lancée à l’initiative de chercheurs européens, conduite en France sous la direction d’Hélène Riffault, synthétisée pour l’essentiel par Jean Stoetzel dans Les valeurs du temps présent (PUF, 1983), elle interroge tous les neuf ans environ un échantillon représentatif. Cinq vagues à ce jour : 1981, 1990, 1999, 2008, 2018.
La question est simple : « Diriez-vous que le travail est, dans votre vie, très important, assez important, peu ou pas du tout important ? » Les réponses « très important » : 60 % en 1990, 69 % en 1999, 68 % en 2008, niveau comparable en 2018. La centralité subjective du travail est l’une des données les plus stables que les sciences sociales aient mesurées sur quatre décennies.
Pire pour le récit dominant : la France est parmi les pays européens où le travail conserve la plus forte centralité déclarée. L’enquête publiée en 2023 par l’Institut Montaigne avec Kantar Public, conduite sur 5 001 actifs et titrée Les Français au travail : dépasser les idées reçues – titre symptomatique du décalage –, confirme : satisfaction au travail élevée et stable, malgré une intensification massivement ressentie.
Que se passe-t-il, alors ? Une autre série d’enquêtes, conduites depuis 1978 par la DARES et renouvelées tous les sept ans (Conditions de travail 1978, 1984, 1991, 1998, 2005, 2013, 2016, 2019), documente avec précision ce qui s’est effectivement transformé, moins le rapport au travail que ses conditions concrètes d’exercice. Les contraintes de rythme se sont multipliées – en 2016, un salarié sur trois est soumis à au moins trois contraintes de rythme simultanées. La charge mentale a crû. L’autonomie réelle, malgré la rhétorique de l’empowerment et de la responsabilisation, recule. Le travail sous pression s’est durablement banalisé.
Cette dégradation n’est pas un effet de bord. Elle accompagne l’importation, à partir des années 1980, des pratiques managériales nées du diagnostic patronal : lean management, flexibilisation, juste-à-temps, cercles de qualité, individualisation des objectifs, évaluation continue. Le « jamais assez » a produit les dispositifs concrets qui intensifient le travail. Le diagnostic et son traitement forment un même mouvement.
Deux faits coexistent donc : le travail compte toujours autant pour les Français, même si les conditions d’exercice se sont durcies – précisément parce que la grammaire managériale dominante l’a voulu ainsi. La souffrance documentée par les enquêtes n’est pas le signe d’un retrait subjectif. Elle est l’effet d’une centralité maintenue dans des conditions dégradées par l’effort même de combattre un désengagement qui n’avait pas lieu.
Dans ces conditions, si le récit du « jamais assez » persiste, c’est parce qu’il n’a jamais eu pour fonction de décrire, mais de justifier. Il est, d’abord, est un dispositif rhétorique qui produit la demande d’expertise censée le résoudre. Le baromètre annuel State of the Global Workplace publié par Gallup, qui chiffre depuis vingt ans le « désengagement » mondial, en est l’archétype : il documente en mesurant ce qu’il a besoin de constater pour justifier son commerce de conseil. McKinsey avait inauguré le genre à la fin des années 1990 avec son rapport War for Talent – autre récit de pénurie destiné à vendre une expertise. Chaque vague du récit nourrit un marché.
Le dispositif a aussi une fonction générationnelle : présenter chaque cohorte qui entre sur le marché du travail comme étrangère à la précédente. Les baby-boomers étaient déjà soupçonnés en 1968 d’avoir « refusé le travail » ; les X « ne s’investissaient plus comme avant » dans les années 1990 ; les Y avaient « besoin de sens » dans les années 2000 ; les Z auraient désormais « la flemme ». La rupture est toujours générationnelle, et toujours nouvelle.
Une fonction politique enfin : il sert tour à tour à justifier la flexibilisation (« les jeunes ne veulent plus s’engager ») et à la dénoncer (« le néolibéralisme a tué le sens du travail »). Il est utilisable de tous bords.
À lire aussi : Vote radical : ce que le travail nous apprend des colères qui séparent
Mais ces fonctions recèlent une matrice plus profonde : un dispositif de soupçon permanent à l’égard du salarié, né dans le moment néolibéral du début des années 1980 et qui n’a depuis jamais cessé de se réinventer. Or si l’on prend les données au sérieux, les politiques d’engagement, de fidélisation ou de marque employeur ne s’adressent pas à des salariés désinvestis.
Elles s’adressent à des salariés qui tiennent au travail dans des organisations qui tiennent de moins en moins leurs promesses. Tant qu’on lit la souffrance comme un retrait, on cherche à réengager des gens jamais désengagés en empilant des dispositifs qui aggravent ce qu’ils prétendent soigner. Si on la lit pour ce qu’elle est – un engagement contrarié –, on s’oblige à regarder ce qui, dans les organisations, contrarie cet engagement : l’intensification non négociée, l’autonomie reprise, le sens promis et non tenu.
Jean Pralong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2026 à 14:25
Benyamin Shajari, Professeur de management de la chaîne d'approvisionnement, Excelia
Depuis le début de l’intervention israélo-états-unienne en Iran, la résilience du régime interroge. Alors que le caractère répressif du régime annihile les mouvements d’opposition, ce dernier a mis en place une organisation logistique favorisant la robustesse à tout prix plutôt que l’efficience à court terme. L’hyperperformance des systèmes logistiques est-elle devenue, a contrario, une source de faiblesse de premier plan ?
La quête de rentabilité absolue a créé un monstre fragile. Nos chaînes logistiques mondiales sont à la fois hyperoptimisées et vulnérables. Résultat : le moindre grain de sable paralyse désormais l’économie globale.
Cette fragilité systémique se confirme avec un exemple inattendu. Le régime iranien résiste de façon spectaculaire dans l’actuel conflit au Moyen-Orient, illustrant l’efficacité redoutable d’une stratégie fondée sur la robustesse plutôt que sur la performance.
Durant quarante ans le commerce mondial a vénéré l’efficience maximale. Les entreprises ont vidé leurs entrepôts pour fonctionner en flux tendus permanents. Cette obsession a concentré les échanges autour de quelques passages maritimes étroits. Le détroit d’Ormuz, le Bab-el-Mandeb (détroit de la mer Rouge, ndlr), Taïwan, Malacca (dans le sud-ouest de la Malaisie, ndlr) ou le canal de Suez (en Égypte, ndlr) incarnent cette perfection dangereuse. Un cinquième du pétrole mondial transite chaque jour par Ormuz.
À lire aussi : Le détroit d’Ormuz est un laboratoire pour gérer la logistique mondiale en temps de guerre
Cette concentration offre des profits immenses en temps de paix mais prive le système de toute marge d’erreur. Une pandémie, un navire échoué ou un conflit militaire suffit à faire vaciller l’édifice.
L’effondrement récent du trafic maritime au détroit d’Ormuz prouve que cette performance logistique est devenue notre principal point faible.
Cette fragilité oblige les dirigeants à changer de logiciel mental. La performance pure ne fonctionne que dans un monde stable et abondant. Dans notre époque marquée par les crises et la rareté, l’optimisation devient une vulnérabilité fatale. Un système robuste accepte d’être sous-optimal à court terme pour garantir sa survie lors des tempêtes.
Ce renversement de pensée explique la dynamique du conflit actuel. Beaucoup prédisaient un effondrement rapide de Téhéran face à une puissance de feu supérieure. Pourtant, le régime tient bon. L’État iranien a substitué la survie à la victoire éclatante en imitant les mécanismes de défense de la nature.
Cette résilience résulte de plus de vingt années d’apprentissage forcé. La République islamique a transformé les pires sanctions de l’histoire en doctrine de survie. La redondance systémique est devenue sa règle d’or. Sur le plan militaire, Téhéran n’a pas concentré ses usines. La carte publiée par la CIA montre que le pays a disséminé la production de ses drones et de ses missiles sur tout son territoire.
Ce maillage décentralisé permet à d’autres sites de prendre le relais sous les bombardements. Ainsi, une destruction de ce réseau par voie aérienne devient quasi impossible et très coûteuse. L’objectif pour le régime consiste donc à absorber le choc pour durer.
Cette logique de forteresse s’applique aussi à l’économie civile par des choix contre-intuitifs. Premièrement, l’Iran figure parmi le Top 15 mondial des producteurs de blé et frôle l’autosuffisance. Toutefois, selon l’agence de presse iranienne Tasnim, l’État, anticipant la possibilité d’un conflit majeur, a importé environ trois millions de tonnes de céréales fin 2025. Deuxièmement, le 3 mars 2026, Téhéran a même sacrifié ses précieuses rentrées de devises. Le gouvernement a interdit toute exportation agroalimentaire pour protéger son marché intérieur. Troisièmement, selon le média iranien Tabnak, le partenariat stratégique avec la Russie signé en 2025 continue à sécuriser la chaîne alimentaire par l’intermédiaire de la mer Caspienne depuis le début de la guerre en fin février. Enfin, pour contourner le blocus d’Ormuz, le pays a basculé ses échanges vers l’Asie centrale.
L’explosion du commerce, militaire et alimentaire, avec le Tadjikistan prouve l’efficacité de cette porte de secours. Les embargos et les bombardements n’ont donc pas tué la République islamique d’Iran. Ils ont forgé un écosystème où la sécurité des approvisionnements alimentaires et surtout militaires surpasse toujours la rentabilité.
Mais cela a forcément un prix, car l’inflation en Iran dépasse désormais le chiffre symbolique de 50 %.
Cette séquence stratégique dépasse largement les frontières iraniennes. Elle sonne l’alarme pour tous les décideurs économiques. Ceci marque la fin d’une époque : la survie d’un acteur organisé pour la robustesse face à des adversaires structurés pour la performance. Dans un environnement avec des disruptions chroniques, les modèles d’affaires fondés sur la rationalisation extrême sont très fragiles.
Les entreprises doivent recréer des marges de manœuvre. Il faut accepter de sacrifier les profits immédiats. Il devient vital de multiplier les fournisseurs locaux et de reconstituer des stocks stratégiques. Une part d’inefficacité opérationnelle est le nouveau prix à payer pour la sécurité à long terme.
La compétition mondiale ne couronnera plus l’entité la plus optimisée. Elle récompensera celle qui saura encaisser les chocs sans se briser.
Benyamin Shajari ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.