TOUTES LES REVUES
+

▸ les 25 dernières parutions

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

05.03.2025 à 15:56

Femmes et hommes scientifiques : l’effet inattendu du genre dans les rétractions d’articles

Catherine Guaspare, Sociologue, Ingénieure d'études, Centre national de la recherche scientifique (CNRS)
Abdelghani Maddi, Ingénieur de recherche en analyse et traitement des données, Centre national de la recherche scientifique (CNRS)
Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université
De manière surprenante, les raisons des rétractations d’articles scientifiques divergent si la direction de l’équipe est assurée par une femme ou par un homme.

Texte intégral 2570 mots
Avoir plus de femmes dans la recherche pourrait améliorer la production scientifique. NationalInstituteofAllergyandInfectiousDiseases/Unsplash, CC BY

Les raisons qui justifient qu’on s’intéresse à la place des femmes dans la science ne manquent pas : faire reconnaître leurs contributions au progrès scientifique, élargir les horizons de la recherche, promouvoir l’égalité des chances dans l’accès aux carrières, proposer des rôles modèles pour inspirer de nouvelles générations, etc. Pourtant, un enjeu au moins aussi important reste fréquemment négligé : l’impact de l’équité sur la qualité même de la production scientifique.


Publiée récemment dans la revue Quantitative Science Studies, notre étude soutenue par l’Agence nationale de la recherche montre que la promotion de l’équité en science va bien au-delà de la justice sociale ou de l’élargissement des horizons de recherche : il s’agit également d’agir positivement sur la fiabilité de la science publiée.

Alors que la crise Covid-19 a mis en lumière l’importance des rétractations pour la correction de la science, peut-on établir un lien entre le genre des auteurs et le risque de voir sa publication rétractée ? Ou encore, les publications signées par les femmes ou les hommes sont-elles rétractées pour les mêmes raisons ? Les résultats de notre étude sont parfois inattendus.

Nous montrons notamment que :

  • les publications signées par un seul auteur, quel que soit son genre, ont un niveau de rétractation plus faible que les publications à auteurs multiples ;

  • dans le cas des publications à auteurs multiples, soit aujourd’hui plus de 8 publications sur  10, les publications signées par des équipes mixtes (homme-femme) dirigées par un homme ont un risque de rétractation plus élevé que celles signées par des équipes mixtes dirigées par une femme ;

  • pour les publications à auteurs multiples (mixte et non mixte), les raisons qui justifient la rétractation des publications signées par des équipes dirigées par des femmes diffèrent de celles qui justifient la rétractation des publications signées par des équipes dirigées par des hommes.

Rétracter une publication pour corriger la science

La diffusion des résultats de la recherche passe le plus souvent par les publications scientifiques, sous des formats de plus en plus variés. Le contenu de ces publications fait l’objet d’un examen minutieux conduit par d’autres scientifiques, experts du domaine, afin d’assurer la fiabilité de la science mise à disposition de la communauté scientifique et, plus largement, de toute personne intéressée. C’est ce que l’on appelle généralement le contrôle par les pairs.

La rétractation est un mécanisme qui permet de corriger la science publiée et d’assurer ainsi que les publications à la disposition des scientifiques demeurent fiables. Ce mécanisme consiste, dans son principe général, à soustraire du stock des publications disponibles une publication dont il a été démontré qu’elle contient des erreurs graves ou que son auteur a commis une faute scientifique ou une violation à l’éthique.

Par ailleurs, les rétractations peuvent également concerner des publications, essentiellement dans le domaine médical, contenant des données périmées devant faire l’objet d’une mise à jour.

Au cours des quinze dernières années, le domaine des études de rétractation s’est développé avec un intérêt particulier pour les raisons associées à ces rétractations (erreur ou défaut méthodologique, écart à l’éthique et à l’intégrité, etc.) ou encore pour leurs conséquences potentielles sur la crédibilité de la science. Et de fait la rétractation est parfois interprétée comme un stigmate fragilisant la réputation d’un chercheur ou d’une organisation.

Plus récemment, un nombre restreint de travaux cherchent à mettre en évidence d’éventuelles disparités entre les hommes et les femmes en matière de rétractation. Une étude récente suggère que les motifs justifiant les rétractations diffèrent selon le genre des auteurs. Les femmes seraient sous-représentées dans les fraudes scientifiques, là où elles seraient surreprésentées dans les raisons relevant d’erreurs.

Cette étude exploratoire apparaît comme une invitation à approfondir le lien entre genre et fiabilité de la recherche sur la base d’un échantillon plus large et en tenant compte de la diversité des types d’auteur susceptibles d’être associés à une publication.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Explorer les collaborations scientifiques

À une publication donnée peut correspondre une variété de types d’auteur. Notre étude retient les types suivants : homme seul, femme seule, collaborations exclusivement masculines, collaborations exclusivement féminines, collaborations mixtes dirigées par un homme et collaborations mixtes dirigées par une femme. Cette typologie reproduit l’approche binaire du genre, à l’œuvre dans la pratique ordinaire des signatures scientifiques.

Pour étudier l’influence du genre sur les rétractations, nous avons mobilisé deux bases de données. D’un côté OpenAlex, un répertoire d’articles scientifiques, d’auteurs et d’institutions en accès ouvert, qui contient près de 70 millions de références, duquel nous avons extrait un échantillon aléatoire d’un million de publications représentant plus de 2,6 millions d’auteurs.

Cet échantillon nous sert à caractériser la distribution des types d’auteur présente dans les publications scientifiques en général. La figure ci-dessous décrit, pour notre échantillon, certaines dimensions de l’évolution de cette distribution entre 2000 et 2024, avec une décroissance spectaculaire des publications à auteur unique, observée à partir de 2010.

De l’autre, Retraction Watch qui recense de façon systématique les rétractations et les notices de rétractation des publications scientifiques. Ce sont dans ces notices que l’on trouve généralement les raisons qui justifient les rétractations. La base Retraction Watch nous permet de caractériser la distribution de genre des auteurs présente dans près des 40 000 publications rétractées et recensées, mais également d’identifier les raisons pour lesquelles ces publications ont été rétractées.

La mise en regard de ces deux bases permet d’identifier les types d’auteur sous-représentés ou surreprésentés parmi les publications rétractées. Nous avons construit un indicateur qui permet de comparer la part d’un type d’auteur dans les publications rétractées à sa part dans l’ensemble des publications de notre échantillon extrait d’OpenAlex.

Un indicateur égal à 1 signifie qu’un type donné d’auteur a le même poids dans les publications rétractées que dans notre échantillon. Un indicateur supérieur à 1 indique une surreprésentation d’un type d’auteur dans les publications rétractées et, donc, un risque de rétractation supérieur, là où un indicateur inférieur à 1 indique une sous-représentation et, donc, un risque de rétraction inférieur.

Nous avons cherché à isoler l’effet propre du genre en contrôlant d’autres facteurs susceptibles d’influencer la probabilité de rétractation. Pour cela, nous avons conduit une régression logistique sur un ensemble équilibré de 15 869 publications rétractées et 15 869 publications non rétractées. Cette analyse statistique nous a permis d’estimer l’impact de la composition genrée des équipes, tout en intégrant des variables de contrôle essentielles : la discipline scientifique, le mode d’accès à la publication (accès ouvert ou non), la présence d’un financement, la notoriété des revues (facteur d’impact) et la taille des équipes de recherche. Afin d’assurer la fiabilité des tendances observées, plusieurs tests de robustesse ont été réalisés.

Des types d’auteur, des profils de rétractation

Premier enseignement : la fréquence des rétractations des publications à auteur unique est toujours beaucoup plus faible que la fréquence des publications à auteurs multiples, et ce, quel que soit le genre de l’auteur correspondant. Là où les publications signées par plusieurs auteurs présentent un indicateur toujours égal ou supérieur à 1, les publications signées par un homme seul présentent un indicateur de 0,46, tandis que les publications signées par une femme seule présentent un indicateur de 0,44.

Ces résultats indiquent que les articles rédigés par des auteurs seuls, qu’il s’agisse d’hommes ou de femmes, présentent toujours un risque de rétractation considérablement réduit. On note que les variations observées en fonction du genre ne sont pas significatives.

Ce faible niveau de rétractation pour les publications à auteur unique confirme des recherches antérieures suggérant que ce type de publications, pour l’essentiel des contributions théoriques ou des revues de littérature, réduit le risque d’erreur ou de fraude ; et que ce même risque augmente avec le nombre d’auteurs impliqués, en raison de la complexité accrue du contrôle de l’intégrité des pratiques et des données au sein d’une équipe de recherche. Notre étude montre toutefois qu’il existe un seuil – les collaborations ayant plus de 10 membres – au-delà duquel ce risque cesse d’augmenter, voire décroît.

Deuxième enseignement : pour les publications à auteurs multiples, quelle que soit la configuration observée, ce sont toujours les équipes mixtes qui présentent les risques de rétraction les plus élevés. Les publications collectives signées uniquement par des femmes présentent un indicateur de 0,94 suggérant un risque de rétractation légèrement plus faible pour ces articles. Les publications collectives signées uniquement par des hommes avec un indicateur de 1,11 suggèrent une légère surreprésentation de ce risque. Les différences semblent toutefois limitées.

En revanche, si l’on passe des collaborations non mixtes aux collaborations mixtes, on observe une nette augmentation du risque de rétractation. Pour les publications issues de collaborations mixtes dirigées par un homme, l’indicateur est de 1,92. Ce qui signifie qu’elles sont fortement surreprésentées parmi les articles rétractés. Pour les publications issues de collaborations mixtes dirigées par une femme, on observe là aussi une surreprésentation, avec un indicateur de 1,42, mais d’ampleur plus limitée que pour les hommes. Cet écart constaté nous invite à tenir compte non seulement de la présence des hommes et des femmes dans les collaborations, mais aussi de la place occupée par les unes et les autres dans ces collaborations.

Enfin, troisième enseignement : lorsqu’une publication scientifique à auteurs multiples est rétractée, les raisons qui justifient cette rétractation diffèrent en fonction du genre de l’auteur qui dirige l’équipe de recherche. Comme le montre la figure ci-dessous qui reprend quelques-unes des raisons présentes dans la base Retraction Watch, les équipes dirigées par un homme sont surreprésentées dans les publications rétractées en raison de méconduites caractérisées (1,29), de manquements à l’éthique (1,22), de plagiat d’image (1,34) ou encore d’utilisation frauduleuse d’un nom d’auteur (1,29). Les équipes dirigées par une femme sont, elles, surreprésentées dans les publications rétractées pour des pratiques de plagiat de texte déguisé (1,31) ou non (1,39) et d’erreurs (1,47).

L’exercice de la responsabilité dans les collaborations

Notre étude confirme l’existence de profils de rétractation différents selon le type d’auteur considéré. Pour les publications signées par des équipes mixtes, une publication dirigée par un homme a un risque supérieur de rétractation par rapport à une publication dirigée par une femme. Plus encore, si les deux profils de publications partagent certains manquements à l’intégrité (plagiat, fabrication, manipulation d’image ou de texte), le profil de rétractation des publications dirigées par un homme est surreprésenté dans les écarts caractérisés à l’intégrité (méconduites) et les manquements à l’éthique (absence d’autorisation éthique), là où le profil de rétractation des publications dirigées par une femme est surreprésenté dans les erreurs.

S’il faut se garder de prêter une « nature » plus ou moins vertueuse aux unes et aux autres, nos résultats invitent à être attentif à la façon dont les hommes et les femmes exercent, dans les collaborations scientifiques, leur responsabilité d’encadrement.

Ils permettent par ailleurs de penser ensemble deux priorités institutionnelles : la diversité de genre et l’intégrité scientifique. Il est bien connu que les institutions scientifiques mettent en œuvre des politiques proactives pour assurer une plus grande représentation des femmes dans des domaines tels que la physique, les mathématiques, l’ingénierie et l’informatique ; des disciplines où la présence des femmes est particulièrement limitée.

De même, les établissements d’enseignement et de recherche doivent promouvoir les meilleures pratiques pour garantir la fiabilité des connaissances qu’elles produisent. Ces deux priorités peuvent se renforcer mutuellement, en utilisant la présence des femmes pour améliorer l’intégrité de la recherche et réciproquement.

The Conversation

Catherine Guaspare a reçu des financements de l'Agence Nationale de la Recherche

Abdelghani Maddi a reçu des financements de l'Agence Nationale de la Recherche.

Michel Dubois a reçu des financements de l'Agence Nationale de la Recherche et du programme cadre Horizon Europe de l'Union Européenne

04.03.2025 à 16:26

Ordinateur quantique : comprendre le grand défi des « codes correcteurs d’erreurs » et l’avancée récente de Google

Claire Goursaud, Maître de conférence sur l'internet des objets et le calcul quantique, INSA de Lyon, Inria, INSA Lyon – Université de Lyon
Google a montré en décembre 2024 qu’une stratégie importante pour développer les ordinateurs quantiques fonctionnait effectivement en pratique. Explications.

Texte intégral 2441 mots
Pour avoir un ordinateur quantique utile, il faut réussir à fabriquer puis assembler des bits quantiques qui ne font pas d’erreurs. On parle d’éviter le « bruit ». Darkhan Basshybayev, Unsplash, CC BY

La perspective de fabriquer des ordinateurs quantiques suscite des investissements massifs et des politiques publiques destinées à soutenir l’innovation technologique dans de nombreux pays. Si ceux-ci finissent par être opérationnels, ils pourraient avoir de très grandes puissances de calculs et permettre de traiter certains problèmes bien plus rapidement que les meilleurs ordinateurs classiques.

Néanmoins, pour faire un ordinateur quantique, il faut maîtriser plusieurs ingrédients extrêmement délicats à préparer et à manipuler, et c’est pour cela qu’un ordinateur quantique à même de faire concurrence aux ordinateurs classiques n’existe pas encore.

Ceci n’empêche pas les ordinateurs quantiques de susciter de nombreux fantasmes et parfois, une médiatisation qui n’est pas forcément en phase avec le rythme des développements technologiques.

Claire Goursaud travaille à l’Insa Lyon, où elle développe des algorithmes quantiques pour résoudre des problèmes rencontrés dans les grands réseaux, en particulier les réseaux d’objets connectés (IoT). Claire répond à nos questions sur les capacités actuelles des ordinateurs quantiques, et leurs limites, afin d’éclairer les avancées les plus récentes du domaine.


Aujourd’hui, qui peut utiliser un ordinateur quantique ?

Claire Goursaud : Un ordinateur quantique est construit autour d’un processeur (qui est la partie intelligente de l’ordinateur, c.-à-d., celle qui réalise les calculs), auquel on doit rajouter des périphériques/interfaces, une mémoire, et un circuit de refroidissement. Il existe des processeurs quantiques que les chercheurs et industriels peuvent utiliser à des fins de recherche et développement. Par exemple, IBM dispose dans ses fermes de calcul de systèmes quantiques qui sont mis à disposition des chercheurs. D-Wave proposait aussi un accès à ses processeurs jusqu’à fin 2024, mais l’a restreint à ces clients depuis le début d’année. Pour l’instant, ces processeurs sont assez petits — 133 qubits dans le cas d’IBM — ce qui limite ce que l’on peut en faire.

Si le nombre de qubits est affiché en augmentation régulière (avec une multiplication par 2 tous les ans pour les processeurs d’IBM), ce n’est pas le seul critère qui permet d’évaluer l’utilité d’un processeur quantique. En effet, c’est la fiabilité des qubits actuels et des calculs qui pêche aujourd’hui.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les applications promises par les promoteurs des ordinateurs quantiques sont encore lointaines en pratique — simuler des molécules pour développer de nouveaux médicaments par exemple, améliorer la planification des vols commerciaux, ou booster encore davantage l’intelligence artificielle.


À lire aussi : De la cryptographie à l’intelligence artificielle, l’informatique quantique pourrait-elle changer le monde ?


Ces processeurs quantiques peuvent-ils déjà faire des calculs inaccessibles aux supercalculateurs classiques ?

C.G. : Pour le moment, les calculateurs quantiques n’apportent pas encore d’avantage par rapport aux supercalculateurs classiques pour des problèmes qui ont une application concrète tels que ceux cités précédemment.

En revanche, si, en théorie, tous les calculs que l’on sait écrire mathématiquement peuvent être programmés dans un ordinateur classique, la pratique est plus compliquée. En effet, certains calculs demanderaient trop de ressources pour un ordinateur classique : il nous faudrait soit des ordinateurs beaucoup plus grands que ceux dont on dispose (dont les capacités de calcul ne sont donc pas assez importantes), soit un temps que nous n’avons pas (pouvant aller jusqu’au millier ou million d’années pour certains calculs !).

À cet égard, un exemple connu est celui des « clefs de chiffrement », qui sont notamment nécessaires dans le domaine des télécommunications. Ces communications sont chiffrées avec un code que l’on pourrait cracker en principe (en les testant un par un) ; mais cela prendrait tellement de temps de le faire avec un ordinateur classique que ce n’est pas rentable en pratique pour des attaquants.

Comme les processeurs quantiques promettent de paralléliser massivement certains calculs, ils permettraient de résoudre des problèmes qu’on ne sait pas traiter assez rapidement avec un ordinateur classique… Ainsi, les ordinateurs quantiques pourraient permettre de décrypter ces messages actuellement inattaquables.

Mais les processeurs quantiques ne seront pas utiles pour toutes les applications. En effet, pour que le calcul quantique ait réellement un intérêt, il faut des problèmes avec une structure particulière. C’est le cas, par exemple, dans l’internet des objets — le domaine de recherche auquel j’applique le calcul quantique. On a des millions d’objets connectés : des montres, des radiateurs, des voitures… Ces millions d’objets transmettent des informations sans aucune coordination préalable. La station de base reçoit un mélange des messages de chacun de ces objets, qui ne sont pas facilement séparables. La difficulté pour la station de base est de savoir qui a transmis quoi à chaque instant.

Dans ce cas, l’intérêt du calcul quantique est d’attribuer une unité de calcul (un qubit) à chaque objet connecté ; de calculer tous les messages que l’on aurait pu recevoir en fonction de l’activité potentielle de chaque objet connecté, puis de comparer toutes ces possibilités au signal qu’on a réellement reçu… afin de trouver celle qui est la plus proche du message réel.

Pour simuler de cette manière un petit réseau de 20 objets connectés avec un ordinateur classique, il faut faire 220 calculs (soit 1 048 576) ; alors qu’avec un ordinateur quantique, il ne faut faire « que » sqrt(220) de calculs environ (en utilisant alors 20 qubits pour représenter les 20 objets auxquels se rajoutent une ou plusieurs dizaines de qubits pour contenir le résultat des calculs intermédiaires).

Ainsi, on peut réduire considérablement le temps de calcul. En pratique, le gain de temps dépendra des processeurs quantiques utilisés.



Qu’est-ce qui limite les processeurs quantiques actuels ?

C.G. : Ce qui limite l’utilisation de processeurs quantiques aujourd’hui est principalement leur taille et leur fiabilité.

Tout d’abord, les processeurs quantiques opérationnels actuellement font entre quelques dizaines et quelques centaines de qubits (par exemple IonQ avec 35 qubits et 1121 qubits pour le processeur Condor de IBM), mais avec des fiabilités variées.

Ces nombres ne sont pas suffisants pour qu’il soit réellement intéressant d’utiliser actuellement des processeurs quantiques pour autre chose que de la recherche, ou du développement de meilleurs processeurs. Par exemple, les processeurs quantiques qu’IBM met à disposition des chercheurs possèdent 133 qubits, ce qui me permet d’étudier un réseau de 20 objets connectés seulement.

Mais, ce qui limite la taille des ordinateurs quantiques aujourd’hui, c’est ce qu’on appelle le « bruit ». Aujourd’hui — ou du moins jusqu’à très récemment, comme nous allons le voir — plus il y a de qubits, plus il est difficile de contrer ce bruit. Ce « bruit » détruit les propriétés quantiques des qubits, ce qui provoque des erreurs de calcul, et diminue donc l’utilité des processeurs quantiques.

D’où vient le bruit dans les processeurs quantiques ?

C.G. : Dans les processeurs quantiques, on manipule des qubits, qui sont en fait des particules toutes petites et très sensibles à tout ce qui se passe autour d’elles : du « bruit » qui perturbe, voire détruit, leur état quantique.


À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique


Il y a plusieurs sources de bruit pour les ordinateurs quantiques aujourd’hui. Tout d’abord, la particule quantique « vieillit » lorsqu’elle interagit avec son environnement. C’est un phénomène que l’on appelle la « décohérence ».

Il y a aussi du bruit thermique : quand on n’est pas au zéro absolu, la particule bouge, ce qui peut perturber son état quantique.

Il peut aussi y avoir des impuretés dans les matériaux électroniques — c’est également le cas dans les processeurs classiques ; mais c’est particulièrement nuisible dans les ordinateurs quantiques.

Enfin, deux autres sources de bruits sont liées au fait qu’on met plusieurs qubits les uns à côté des autres. On est face à une injonction contradictoire : il faut à la fois isoler les particules les unes des autres pour limiter le bruit, mais aussi bien sûr les laisser interagir quand c’est nécessaire pour le calcul. Quand on demande aux qubits d’interagir pour faire le calcul, on le fait avec des impulsions (des « portes ») — si ces impulsions sont mal réglées, ça introduit des perturbations qui modifient l’état quantique du qubit.

Ce bruit induit des erreurs de calcul ?

C.G. : Oui, et on distingue deux types d’erreurs de calcul quantique.

La première s’appelle un « bit flip » : c’est quand l’état quantique de la particule passe de 0 à 1 ou l’inverse. On maîtrise très bien ces erreurs dans le domaine des télécommunications, qui est depuis toujours basé sur des 0 et des 1 (les « bits » des ordinateurs classiques). Pour réparer ces erreurs, on peut utiliser les « codes correcteurs d’erreurs » hérités des télécommunications classiques.

En revanche, le second type d’erreur est plus problématique. Il s’agit de ce que l’on appelle une « erreur de signe » : on conserve le 0 (l’erreur n’est pas un bit flip) mais le signe est erroné (un signe « moins » au lieu d’un signe « plus », ou l’inverse). Les erreurs de signe sont très importantes aujourd’hui en calcul quantique, parce que les codes correcteurs historiques ne corrigent pas ces erreurs de signes… qui sont tout à fait spécifiques au monde quantique, parce qu’elles sont liées au fait que l’on décrit les états quantiques avec des nombres complexes.

Pour contrer les effets du bruit qui perturbe les qubits et obtenir des processeurs quantiques utiles, les chercheurs développent aujourd’hui de nouveaux codes correcteurs d’erreurs qui prennent aussi en compte les erreurs de signe.

Ces « codes correcteurs d’erreur » qui sont au cœur des recherches et des avancées actuelles ?

C.G. : Aujourd’hui, une des tendances les plus porteuses pour ces nouveaux codes correcteurs d’erreurs s’appelle les « codes de surface » : le principe est de dupliquer le qubit physique (l’état de la particule), et à l’aide de liens entre tous les qubits dupliqués, de générer un « qubit logique ». Ce qubit logique est donc composé de plusieurs qubits physiques, et il est en principe dépourvu d’erreurs, ce qui permet de l’utiliser dans le calcul.

Cette stratégie demande d’avoir de nombreux qubits physiques pour obtenir un seul qubit logique. Or, on a vu que plus il y a de qubits, plus il y a de problèmes de bruit. C’est pourquoi on craignait jusqu’à récemment que les problèmes ajoutés par la démultiplication des qubits physiques n’annulent les gains obtenus avec cette stratégie de code de surface.

Or, en décembre 2024, Google a montré que cette stratégie marche en pratique : les chercheurs ont présenté un processeur appelé « Willow », qui contient 105 qubits physiques formant un qubit logique : c’est un code correcteur d’erreur plus grand et plus difficile à manipuler que les codes précédents, mais, au global, il est plus performant.

Il faut bien réaliser que Willow ne contient qu’un seul qubit logique. Il faudrait en associer plusieurs pour pouvoir faire des calculs utiles. Dans l’exemple de mon réseau d’objets connectés, il faudrait un Willow pour chacun des objets connectés du réseau puisque les 105 qubits physiques équivalent à un seul qubit logique suffisamment résistant aux perturbations pour faire des calculs. Le nombre de qubits annoncés par les fabricants, qui sont des qubits physiques, ne sont donc pas suffisants pour évaluer les capacités d’un processeur quantique.

Néanmoins, cette avancée suggère que l’on va désormais voir se développer des codes encore plus grands, pour une probabilité d’erreur encore plus petite — en d’autres termes, la stratégie des codes correcteurs de surface semble avoir de l’avenir devant elle.

The Conversation

Claire Goursaud a reçu des financements de l'ANR et de l'INRIA pour travailler sur les algorithmes quantiques.

27.02.2025 à 15:53

A new study reveals the structure of violent winds 1,300 light years away

Vivien Parmentier, Professeur junior spécialiste des atmosphères d'exoplanètes au laboratoire LAGRANGE, Observatoire de la Côte d’Azur, CNRS, Université Côte d’Azur
Julia Victoria Seidel, ESO Research Fellow - visiteuse long durée Lab Lagrange, Observatoire de la Côte d'Azur, Observatoire Européen Austral
Scientists already knew how to study the chemical composition of the atmosphere of exoplanets. Now, they can also study details about their powerful winds.

Texte intégral 2002 mots
The largest telescopes in the world are used to look at the atmospheres of planets orbiting other stars and located at astronomical distances. Y. Beletsky(LCO)/ESO, CC BY

The planet WASP-121b is extreme. It’s a gas giant almost twice as big as Jupiter orbiting extremely close to its star–50 times closer than the Earth does around the Sun. WASP-121b is so close to its star that tidal forces have locked its rotation in a “resonance”: the planet always shows the same face to its star, like the Moon to the Earth. Therefore, one side of WASP-121b constantly bakes in light whereas the other is in perpetual night. This difference causes huge variations in temperature across the planet. It can be more than 3,000°C on one side and drop 1,500°C on the other.

This huge temperature contrast is the source of violent winds, blowing several kilometres per second, which try to redistribute the energy from day to night. Until now, we had to guess the strength and direction of the winds with indirect measurements, such as measurements of the planet’s temperature. In recent years, with the arrival of new instruments on giant telescopes, we’ve been able to directly measure the wind speed of certain exoplanets, including WASP-121b.

In our study published in the journal Nature that was conducted by my colleague, Julia Seidel, we not only looked at wind speed on an exoplanet, but also at how these winds vary with altitude. We were able to measure for the first time that winds in the deepest layers of the atmosphere are very different from those at higher altitudes. Put it this way: on Earth, winds blowing a few dozen kilometres per hour already make it hard to ride a bike; on WASP-121b, pedalling would be impossible, because the winds are a hundred times faster.

Our measurements reveal the behaviour of a pivotal zone of the atmosphere that forms the link between the deep atmosphere–usually surveyed by telescopes such as the James Webb Space Telescope–and the outer zones where the atmosphere escapes into space, blown by the wind coming from its star.

How did we measure the atmosphere of a planet millions of billions of kilometres away?

To make our measurements, we used one of the most precise spectrographs on Earth, mounted on the largest telescope available to us: ESPRESSO at the European Southern Observatory (ESO) Very Large Telescope (VLT), located in the Atacama desert in Chile. To collect as much light as possible, we combined the light from the VLT’s four 8-metre diameter telescopes. Thanks to this combination, which is still being tested, we collected as much light as would a 16-metre diameter telescope–which would be larger than any optical telescope on Earth.

The ultra-precise ESPRESSO spectrograph then enabled us to separate the light from the planet into 1.3 million wavelengths. This allows us to observe as many colours in the visible spectrum. This precision is necessary to detect different types of atoms in the planet’s atmosphere. This time, we studied how three different types of atoms–absorb light from the star: hydrogen, sodium and iron (all in a gaseous state, given the very high temperatures).

By measuring the position of these spectral lines very precisely, we were able to directly measure the speed of these atoms. The Doppler effect tells us that an atom coming toward us will absorb more blue light, while an atom moving away from us will absorb more red light. By measuring the absorption wavelength of each of these atoms, we have as many different measurements of the wind speed on this planet.

We found that the lines of the different atoms tell different stories. Iron moves at 5 kilometres per second from the substellar point (the region of the planet closest to its host star) to the anti-stellar point (the most distant) in a very symmetrical way. Sodium, on the other hand, splits in two: some of the atoms move like iron, while the others move at the equator directly from east to west four times faster, at the staggering speed of 20 kilometres per second. Finally, hydrogen seems to move with the east-west current of sodium but, also, vertically, no doubt allowing it to escape from the planet.

To reconcile all this, we calculated that these three different atoms are, in fact, in different parts of the atmosphere. While iron atoms lie at the deeper layers, where symmetrical circulation is expected, sodium and hydrogen let us probe much higher layers, where the planet’s atmosphere is blown by the wind coming from its host star. This stellar wind, combined with the rotation of the planet, probably carries the material asymmetrically, with a preferential direction given by the rotation of the planet.

diagram of the composition and winds of the atmosphere of WASP-121b
There are violent winds in the atmosphere of WASP-121b. The three types of atoms travel at different speeds, helping to reconstruct the structure of the atmosphere, even though the planet is millions of billions of kilometres away from Earth. ESO/M. Kornmesser, CC BY

Why study the atmospheres of exoplanets?

WASP-121b is one of those giant gaseous planets with temperatures of over 1,000°C that are known as “hot Jupiters”. The first observation of these planets by Michel Mayor and Didier Queloz (which later earned them a Nobel Prize in Physics) came as a surprise in 1995, particularly because planetary formation models predicted that these giant planets could not form so close to their star. Mayor and Queloz’s observation made us realise that planets do not necessarily form where they are currently located. Instead, they can migrate, i.e., move around in their youth.

How far from their star do “hot Jupiters” form? Over what distances do these objects migrate in their infancy? Why did the Jupiter in our solar system not migrate toward the Sun? (We’re lucky it didn’t, because it would have sent Earth into our star at the same time.)

Some answers to these questions may lie in the atmosphere of exoplanets, which exhibit traces of the conditions of their formation. However, variations in temperature or chemical composition within each atmosphere can radically skew the abundance measurements that we are trying to take with large telescopes such as the James Webb. In order to exploit our measurements, we first need to grasp how complex these atmospheres are.

To do this, we need to understand the fundamental mechanisms that govern the atmosphere of these planets. In the solar system, winds can be measured directly by, for example, looking at how fast clouds move. On exoplanets, we cannot see any details directly.

In particular, “hot Jupiters” orbit so close to their stars that we cannot separate them spatially and take photos of the exoplanets. Instead, from among the thousands of known exoplanets, we select those that have the good taste to periodically pass between their star and us. During this “transit”, light from the star is filtered by the planet’s atmosphere, which allows us to measure the signs of absorption by different atoms or molecules. In general, the data we obtain are not good enough to separate the light that passes on one side of the planet from the other, and we end up with an average of what the atmosphere has absorbed. As conditions along the atmospheric limb (i.e., the slice of atmosphere surrounding a planet as observed from space) can vary drastically, interpreting the final average is often a headache.

This time, by using a telescope that, in effect, is larger than any other optical telescope on Earth, and combining it with an extremely precise spectrograph, we were able to separate the signal absorbed by the eastern side of the planet’s limb from the signal absorbed by the western side. This allowed us to measure the spatial variation of the winds in the planet.

The future of atmospheric study of exoplanets

Europe is currently building the next generation of telescopes, led by the ESO’s Extremely Large Telescope, which is scheduled for 2030. The ELT will have a mirror 30 metres in diameter, twice the size of the telescope we obtained by combining the light from the four 8-metre telescopes of the VLT.

This giant telescope will gather even more precise details about the atmospheres of exoplanets. In particular, it will measure the winds in exoplanets both smaller and colder than “hot Jupiters”.

But what we are all really waiting for is the ELT’s ability to measure the presence of molecules in the atmosphere of rocky planets orbiting in the habitable zone of their star, where water may be present in a liquid state.


The EXOWINDS project is supported by the French National Research Agency (ANR), which funds project-based research in France. Its mission is to support and promote the development of fundamental and applied research in all disciplines, and to strengthen the dialogue between science and society. For more information, visit the ANR website.

The Conversation

Vivien Parmentier received funding from the French National Research Agency (exowinds, ANR-23-CE31-0001-01).

Julia Victoria Seidel is an ESO (European Southern Observatory) Research Fellow.

6 / 25