TOUTES LES REVUES
+

▸ les 25 dernières parutions

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

25.06.2025 à 12:09

Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac

Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, Guillaume Cabanac traque les fraudes scientifiques.

Texte intégral 3332 mots
Guillaume Cabanac a été distingué par la revue _Nature_ comme l’un des dix scientifiques de l’année 2021. DCCE, Université de Toulouse, Fourni par l'auteur

Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l'a rencontré.


The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?

Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.

Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.

Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !

Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…

G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.

Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.

De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.

Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».

Ceci questionne la qualité de l’évaluation par les pairs. C’est ce qui a vraiment scandalisé la communauté scientifique et a discrédité ces maisons d’édition qui ont dû reconnaître les faits.

Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.

Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.

Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.


À lire aussi : Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches


Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?

G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.

Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?

G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.

Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.

Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.

Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.

Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?

G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.

Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.

Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.

Comment expliquer qu’une publication scientifique puisse contenir autant de citations d’articles rétractés ?

G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.

L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.

Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?

G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.

Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».

Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.

En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?

G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.

Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.

The Conversation

Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l'Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.

25.06.2025 à 12:09

Comment comprendre ce qu’il se passe à l’intérieur du Soleil ?

Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège
Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?

Texte intégral 2229 mots

Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?


Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.

Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).

Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.

Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La crise des modèles solaires

Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).

Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.

Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.

La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.

L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.

L’importance de la physique fondamentale en physique solaire

Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.

Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.

Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.

Le Soleil comme laboratoire de physique

Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.

La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.

Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.

Z Pulsed Power Facility : l’installation des Sandia National Laboratories qui effectuent des mesures d’opacité en conditions solaires. Sandia National Laboratories

Du Soleil aux étoiles

L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.

Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.

Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.

The Conversation

Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).

25.06.2025 à 12:09

Les arbres savent-ils quand a lieu le solstice ?

Andrew Hacket-Pain, Senior Lecturer, School of Environmental Sciences, University of Liverpool
Le solstice d’été semble jouer un rôle d’aide-mémoire arboricole. Les températures autour de cette période affectent le nombre de graines produites par les arbres.

Texte intégral 2230 mots
Les arbres sont très sensibles à la lumière et à la chaleur. Cashcashcash/Shutterstock

Le solstice d’été semble jouer un rôle d’aide-mémoire arboricole. Les températures autour de cette période affectent le nombre de graines produites par les arbres.


Depuis la Préhistoire, les humains célèbrent le solstice d’été. Mais nous ne sommes pas la seule espèce à avoir remarqué que le 21 juin est un moment particulier. Des études montrent que c’est aussi un moment important pour les plantes.

Ainsi, des études récentes (dont une des miennes) suggèrent que les arbres puissent utiliser le jour le plus long de l’année comme un marqueur clé de leurs cycles de croissance et de reproduction. Comme si le solstice était un aide-mémoire arboricole.

Par exemple, les arbres qui poussent dans des régions froides ralentissent la création de nouvelles cellules de bois aux environs du solstice et concentrent leur énergie à finir des cellules déjà formées mais encore incomplètes. Ce qui permettrait d’avoir le temps d’achever la construction des cellules avant l’arrivée de l’hiver – dont les températures glaciales endommagent les cellules incomplètes, les rendant inutiles pour le transport de l’eau l’année suivante.

Le solstice initie-t-il le brunissement des feuilles avant l’automne ?

Il semble également que les arbres profitent du solstice pour préparer de l’automne, avec la « sénescence » de leurs feuilles. La sénescence permet à l’arbre de réabsorber les nutriments essentiels présents dans les feuilles avant qu’elles ne tombent. Ce processus doit arriver au bon moment : si la sénescence est trop précoce, la perte de feuille réduit la photosynthèse (et donc l’acquisition d’énergie qui sert à la croissance de l’arbre entier). Si la sénescence est trop tardive, les gelées d’automne détruisent les feuilles encore vertes, ce qui fait perdre à l’arbre les précieux nutriments qu’il y avait stockés.

Ainsi, des observations satellites des forêts et des expériences contrôlées dans des serres montrent que des températures élevées juste avant le solstice ont tendance à avancer le brunissement des feuilles à l’automne

À l’inverse, des températures élevées juste après le solstice semblent ralentir le processus de sénescence, ce qui allonge la période de transition entre les feuilles vertes et les feuilles entièrement brunes. Ce réglage fin permettrait aux arbres de prolonger la période de photosynthèse les années où les températures restent plus élevées et de ne pas manquer ces conditions favorables.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ces observations et leurs interprétations font cependant débat parmi les scientifiques.

En effet, du point de vue de l’évolution, le solstice ne serait peut-être pas le meilleur marqueur temporel de ces transitions dans le cycle annuel des arbres. Par exemple, dans les forêts du Grand Nord, les feuilles n’apparaissent pas avant le début du mois de juin, quelques jours seulement avant le solstice, et la saison de croissance peut se prolonger jusqu’en octobre. Dans ces forêts où certains arbres viennent à peine d’entamer leur croissance pour l’année, utiliser le solstice pour amorcer le processus de réduction progressive des activités ne semble guère avoir de sens.

Par contre, il existe un consensus plus large sur l’utilisation du solstice par les plantes pour synchroniser leur reproduction.

Solstice, dis-moi combien de graines produire cette année

Chez de nombreuses plantes, en particulier les arbres des latitudes moyennes tempérées, le nombre de graines produites varie considérablement d’une année à l’autre, ce que l’on appelle le masting. Par exemple, un grand hêtre européen peut produire des centaines de milliers de graines lors d’une année exceptionnelle (une « masting year ») et renoncer totalement à la reproduction d’autres années.

La réduction de la production de graines par les hêtres, qui leur permet d’augmenter l’efficacité de leur reproduction, se fait souvent à l’échelle continentale, et par étapes.

Forêt de hêtres avec un vieil arbre au soleil
Les hêtres coordonnent leur reproduction. Gabriele Rohde/Shutterstock

Un petit papillon, Cydia fagiglandana (ou le carpocapse des faînes, en français – le faîne est le fruit du hêtre), pond ses œufs dans les fleurs de hêtre. Lorsque les larves éclosent, elles mangent et détruisent les graines en développement. L’alternance entre des années fastes en faînes et années de disette contribue à protéger les populations de hêtres de ces papillons.

Au Royaume-Uni par exemple, les hêtres perdent moins de 5 % de leurs graines à cause de Cydia. En effet, les cycles affament les papillons et réduisent leur population, qui attend les années fastes. Si les arbres sont désynchronisés dans ces cycles de forte et faible production de fruits, la perte de graines peut atteindre plus de 40 %.

Nous savons depuis des dizaines d’années que les années d’abondance se produisent après un été particulièrement chaud. En effet, les températures élevées augmentent la formation des bourgeons floraux, ce qui entraîne généralement une plus grande récolte de graines à l’automne.

Comment les hêtres savent-ils que le solstice est le jour le plus long ?

Par contre, nous ne savons pas pourquoi ou comment les hêtres de toute l’Europe semblent utiliser la même fenêtre saisonnière (fin juin-début juillet) pour déterminer leur production de graines, quel que soit l’endroit où ils poussent en Europe. Comment un hêtre peut-il connaître la date ?

En 2024, en étudiant des dizaines de forêts à travers l’Europe, mon équipe a montré que ces arbres utilisent le solstice comme marqueur saisonnier : dès que les jours commencent à raccourcir après le solstice, les hêtres de toute l’Europe semblent percevoir simultanément la température.

Partout où les températures sont supérieures à la moyenne dans les semaines qui suivent le solstice, on peut s’attendre à une forte production de faînes l’année suivante, tandis que les conditions météorologiques des semaines précédant le solstice ne semblent pas avoir d’importance.

Comme le montrent les cartes météorologiques, les périodes de chaleur et de fraîcheur ont tendance à se produire simultanément sur de vastes zones.

Ceci permet aux hêtres de maximiser la synchronisation de leur reproduction, que ce soit en investissant dans une forte production (températures chaudes) ou en renonçant à la reproduction pendant un an (températures basses). L’utilisation d’un repère fixe comme le solstice est la clé de cette synchronisation et des avantages qui en découlent.

Quatre cartes d’Europe montrent que les années d’abondance sont synchronisées à travers le continent
Sur ces cartes, les années d’abondance et de disette semblent se synchroniser à l’échelle régionale, parfois même à l’échelle européenne. Andrew Hacket-Pain, CC BY-NC-ND

Désormais, nous collaborons avec une douzaine d’autres groupes européens pour tester cet effet sur différents sites, en manipulant la température de branches de hêtre avant et après le solstice. Les recherches en cours semblent indiquer que les gènes de floraison s’activent au moment du solstice d’été.

Enfin, des études sur les rythmes circadiens des plantes montrent que celles-ci possèdent des mécanismes moléculaires permettant de détecter de minuscules changements dans la durée du jour, et d’y répondre – ce serait la base de cette extraordinaire échelle de reproduction synchronisée.

Si le temps reste chaud au cours du mois qui vient, les hêtres de votre région produiront sans doute beaucoup de faînes à l’automne prochain – et il est bien probable que ce soit le cas dans le centre et le nord de l’Europe.

The Conversation

Andrew Hacket-Pain a reçu des financements de UK Research and Innovation, du Department for Environment, Food & Rural Affairs et du British Council.

6 / 25