LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Science – The Conversation
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

21.11.2024 à 13:00

Pourquoi la neige est-elle blanche ?

Marie Dumont, Chercheuse, directrice du Centre d'études de la neige, Centre National de Recherches Météorologiques, Météo France

La couleur de la neige n’est pas anodine – elle affecte le climat, et elle nous renseigne sur des phénomènes qui peuvent traverser les mers.
Texte intégral (1375 mots)
La neige est blanche, bien sûr ; mais sa teinte dépend de sa fraîcheur… et elle peut virer à d'autres couleurs dans certaines conditions. Marie Dumont, Fourni par l'auteur

La neige est blanche, mais il y a plusieurs nuances de blanc, et elle revêt même parfois d’autres teintes, plus originales. Plongée entre physique et météo avec la directrice du Centre d’études de la neige basé à Grenoble.


D’une blancheur immaculée qui scintille au soleil, la neige quand elle recouvre le sol à le pouvoir de transformer les paysages en quelque chose de magique. Mais pourquoi est-elle blanche ? Elle est constituée de glace et d’air et les glaçons qui sortent de notre congélateur ne sont pas blancs, ils sont transparents ! Alors comment est-ce possible ?

La neige est blanche justement parce que la glace est transparente. Lorsque l’on dit que la glace est transparente, cela veut dire que la lumière visible et toutes les différentes couleurs qui la constituent ont très peu de chances d’être absorbées lorsqu’elles traversent la glace.

La neige est en fait une sorte de mousse de glace et d’air : la lumière qui la traverse va avoir très peu de chances d’être absorbée en traversant la glace ou l’air, les deux transparents.

Par contre, à chaque interface air-glace, la lumière va être réfléchie (comme un miroir) ou réfractée (changée de direction à l’intérieur de la glace), et va finir par ressortir du manteau neigeux, car elle a très peu de chances d’y être absorbée.

Ainsi la majeure partie de la lumière visible qui entre dans la neige ressort vers le haut, ce qui rend la neige blanche.

Pourquoi la neige est-elle blanche ? (Observatoire environnement terre univers, OSUG).

Cette couleur blanche de la neige est très importante pour notre planète. En effet cela veut dire que lorsque la neige recouvre le sol, la majeure partie de la lumière du soleil va être réfléchie vers l’atmosphère, contrairement à un sol nu ou recouvert de végétation, plus sombre, et qui absorbe plus de lumière. La couleur blanche de la neige limite donc l’absorption d’énergie solaire, et ainsi le réchauffement. Or, plus la température augmente, moins il y a de neige au sol, donc plus la couleur de la planète s’assombrit et plus elle se réchauffe. C’est un phénomène d’« emballement », que l’on appelle encore « rétroaction positive », lié à l’albédo (c’est-à-dire la fraction de rayonnement solaire réfléchi par un milieu) de la neige et qui est très importante pour notre climat.

50 nuances de neige

La neige n’est pas simplement blanche, elle peut prendre différentes nuances de blancs.

Cela vient de l’interaction de la lumière avec la structure de la neige. La structure de la neige, c’est-à-dire, l’arrangement tridimensionnel de l’air et de la glace à l’échelle du micromètre (un millionième de mètre, soit environ cinquante fois moins que l’épaisseur d’un cheveu), varie beaucoup en fonction de l’état de la neige.

Évolution de la microstructure d’une neige en présence d’impuretés. Source : ANR.

Plus la neige a une structure fine, comme c’est le cas par exemple pour la neige fraîche, plus la surface de l’interface air-glace est grande par rapport au volume de glace contenu dans la neige. Pour faire l’analogie avec une piscine à balle, pour la neige fraîche, on aurait alors une grande quantité de toutes petites balles, soit une grande surface de plastique en contact avec l’air. Plus tard, la neige évolue et notre piscine contiendrait des balles plus grosses, en moindre quantité, ce qui résulte en moins de surface de contact entre air et plastique.

La quantité de lumière absorbée est proportionnelle au volume de glace alors que la quantité de lumière diffusée est proportionnelle à la surface de l’interface air-glace. Ainsi plus le rapport entre la surface de l’interface et le volume de glace est grand, c’est-à-dire plus la structure est fine, plus la neige va être blanche. Une neige fraîche paraîtra donc plus blanche qu’une neige à structure plus grossière, par exemple qui a déjà fondu et regelé.

Cette nuance de blanc, qui provient de l’interaction entre la lumière et la structure de la neige, est également à l’origine d’une rétroaction positive importante pour notre climat. En effet, lorsque la température augmente, la structure de la neige a tendance à grossir, la neige devient moins blanche, absorbe plus d’énergie solaire et donc peut fondre plus rapidement.

De la neige en couleur

Mais la neige n’est pas que blanche, on peut trouver de la neige orange, rouge, noire, violette ou même verte. Lorsque de telles couleurs se présentent, c’est que la neige contient des particules colorées qui peuvent être de différentes origines.

On y trouve souvent du carbone suie issu de la combustion des énergies fossiles et qui rend la neige grise.

Dans les massifs montagneux français, il est courant de trouver de la neige orange, voire rouge, après des épisodes de dépôts de poussières minérales en provenance du Sahara.

Vents du Sahara dans le Caucase. Source : Alpalga.

Enfin, la neige contient des organismes vivants, et en particulier des algues qui produisent des pigments pouvant être de différentes couleurs. Dans les Alpes, l’espèce d’algue de neige la plus courante s’appelle Sanguina Nivaloides et teinte la neige d’une couleur rouge sang, que vous avez peut-être déjà observée lors d’une promenade en montagne à la fin du printemps.

En changeant la couleur de la neige, toutes ces particules colorées provoquent une augmentation de la quantité de lumière solaire absorbée par celle-ci, et accélèrent sa fonte.

La blancheur de la neige et ses subtiles nuances sont donc très importantes pour l’évolution du couvert nival et pour le climat de notre planète.


Le projet EBONI et le projet ALPALGA ont été soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Marie Dumont a reçu des financements de l'Agence National pour la Recherche (ANR EBONI et ALPALGA), du Centre National d'Etudes Spatiales (APR MIOSOTIS) et du European Research Council (ERC IVORI).

20.11.2024 à 17:10

Comment les planètes naissent-elles ? La réponse pourrait se trouver dans les astéroïdes

Marco Delbo, Directeur de recherche à l’Observatoire de la Côte d’Azur, Université Côte d’Azur

La formation des planètes est une question fondamentale en astronomie. Comprendre comment elles se forment et évoluent est crucial pour déchiffrer le système solaire et au-delà.
Texte intégral (1954 mots)
Le télescope infrarouge de la NASA au sommet du volcan endormi Mauna Kea, sur la grande île d’Hawaï, aux États-Unis. Jenly Chen/Flickr, CC BY-SA

La formation des planètes est une question fondamentale en astronomie et en science planétaire. Comprendre comment elles se forment et évoluent est crucial pour déchiffrer le système solaire et au-delà. Malgré les avancées de la science, nous sommes encore loin de comprendre tous les détails de la formation planétaire.


Il est bien connu par la théorie et les observations astronomiques que les planètes se forment dans des disques de gaz et de poussière autour d’étoiles très jeunes. Il est donc logique que les planètes de notre système solaire se soient également formées dans le disque protoplanétaire de notre soleil. Cela s’est produit il y a 4,5 milliards d’années.

Cependant la phase la plus obscure de la formation planétaire est peut-être la façon dont la poussière s’accumule dans un disque protoplanétaire pour donner naissance aux planétésimaux, les objets constitutifs des planètes.

Les modèles classiques reposaient sur une coagulation collisionnelle progressive, un processus où de petits grains de poussière s’agglomèrent petit à petit pour former des particules de plus en plus grosses par des collisions, allant de quelques micromètres jusqu’à la taille des planètes. Cependant, des tests en laboratoire ont montré que ces modèles ne fonctionnent pas, car ils rencontrent un certain nombre d’obstacles, par exemple, les grains de poussière ne peuvent pas croître par collisions successives d’une taille submillimétrique à une taille kilométrique.

Une nouvelle théorie

De nouveaux modèles suggèrent que les planétésimaux se forment à partir des nuages de poussière qui atteignent des densités suffisamment élevées pour se soutenir sur eux-mêmes par la gravité. C’est ce qu’on appelle la Streaming Instability, une théorie qui a pris de l’ampleur dans la communauté de planétologues. Différentes études ont montré que cette théorie reproduit bien la distribution des tailles des grands astéroïdes et des objets transneptuniens.

Pourtant, il n’était pas clair jusqu’où s’étendait la distribution des tailles prédite par cette théorie, c’est-à-dire si elle produisait beaucoup de petits planétésimaux ou s’il existait une taille minimale pour ces derniers.

D’autre part, différentes études trouvent une taille typique d’environ 100 km de diamètre pour les planétésimaux, suggérant ainsi que les petits agrégats de particules ne donnent pas nécessairement naissance à de petits planétésimaux. En effet, il semble que les petits agrégats se dispersent en raison de la turbulence du gaz dans le disque protoplanétaire avant d’avoir la possibilité de former des planétésimaux. Ces derniers se sont-ils formés, donc, à grande ou à petite échelle ? Une réponse définitive n’était pas encore établie.

À la recherche des planétésimaux survivants

Origins, un projet de recherche que je dirige et financé par l’Agence Nationale de la Recherche (ANR), a apporté une contribution originale dans ce domaine en utilisant une méthodologie novatrice. Celle-ci repose sur l’analyse d’observations et de données astronomiques pour identifier les planétésimaux encore survivants parmi la population des astéroïdes, afin de mesurer leur distribution de taille.

Ces planétésimaux sont localisés dans la partie interne de la ceinture d’astéroïdes, entre 2,1 et 2,5 unités astronomiques, cette dernière étant la distance moyenne Soleil-Terre. Cela a permis de fournir des contraintes observationnelles strictes aux modèles de formation des planétésimaux.

L’idée fondatrice de notre projet repose sur le concept selon lequel les astéroïdes représentent bien les vestiges de l’ère de formation des planètes, mais que tous les astéroïdes que l’on observe aujourd’hui ne sont pas des survivants de cette époque primordiale. Il est connu que de nombreux astéroïdes sont des fragments issus de collisions entre des corps parentaux plus volumineux. Ces collisions ont eu lieu tout au long de l’histoire de notre système solaire. L’âge de ces fragments d’astéroïdes correspond au temps écoulé depuis l’événement de collision qui les a produits jusqu’à aujourd’hui. Bien que ces fragments conservent encore la composition originale de leurs géniteurs, leurs dimensions et formes ne fournissent aucune information sur les processus d’accrétion ayant conduit à l’accrétion des planétésimaux, et par conséquent, des planètes. Les méthodes développées dans le cadre de notre projet ont efficacement distingué les astéroïdes originaux, ayant été accumulés en tant que planétésimaux dans le disque protoplanétaire, des familles des fragments résultant de collisions. Par la suite, elles ont également permis d’étudier les événements dynamiques qui ont contribué à sculpter la structure actuelle du système solaire.

Notre équipe a développé et utilisé une méthode pour découvrir, localiser et mesurer l’âge des familles des fragments de collisions les plus anciennes : chaque membre d’une famille de fragments s’éloigne du centre de la famille en raison d’une force thermique non gravitationnelle connue sous le nom d’effet Yarkovsky.

Cette dérive se produit de manière dépendante de la taille du membre de la famille, les petits astéroïdes dérivant plus rapidement et plus loin que les plus grands. La méthode novatrice de notre projet consistait à rechercher des corrélations entre la taille et la distance dans la population d’astéroïdes. Cela a permis de révéler les formes des familles de fragments les plus anciennes.

Des astéroïdes vieux de 3 à 4,5 milliards d’années

Grâce à cette technique, quatre familles importantes et très anciennes d’astéroïdes ont été découvertes par les chercheurs de notre projet. Ce sont parmi les familles d’astéroïdes les plus répandues. Leur extension est d’environ une moitié d’unité astronomique et ils sont localisés dans la partie plus interne de la ceinture d’astéroïdes et ont des âges entre 3 et 4,5 milliards d’années.

Cependant, une nouvelle méthode d’identification des familles d’astéroïdes nécessite encore des vérifications. L’une de ces vérifications consiste à déterminer la direction de rotation de chaque membre des familles.

Pour ce faire, les chercheurs ont lancé une campagne internationale d’observations appelée « Ancient asteroids », impliquant des astronomes professionnels et amateurs. Ils ont obtenu des observations photométriques des astéroïdes afin de mesurer leur variation de luminosité en fonction de leur rotation (courbe de lumière). Grâce à des méthodes d’inversion de courbe de lumière, l’équipe de notre projet a pu déterminer l’orientation tridimensionnelle des astéroïdes dans l’espace et extraire la direction de rotation. Cela a révélé que les astéroïdes rétrogrades se trouvent généralement plus près du Soleil que le centre des familles, tandis que les astéroïdes progrades se trouvent au-delà du centre des familles, conformément aux attentes théoriques. Ces recherches ont permis de confirmer l’appartenance de plusieurs astéroïdes aux familles très anciennes identifiées par notre équipe.

Une question scientifique majeure qui s’est posée après l’identification des astéroïdes les plus primordiaux était de savoir quelle était leur composition. Pour répondre à cette question, les scientifiques de l’ANR Origins sont retournés à leurs télescopes pour étudier spectroscopiquement ces corps. Leur investigation spectroscopique des planétésimaux de la ceinture principale interne a confirmé que les corps riches en silicates dominaient cette région. Cependant, presque tous les types spectraux d’astéroïdes sont présents, à l’exception notable des astéroïdes riches en olivine. Leur absence parmi les planétésimaux pourrait être due à la rareté de ces types parmi les grands astéroïdes.

Certains types d’astéroïdes sont très rares

Mais pourquoi les astéroïdes riches en olivine sont aussi rares ? On s’attend à ce que les astéroïdes les plus anciens soient riches en olivine en raison du processus de différenciation. Ce processus entraîne l’organisation d’un corps en couches de densités et de compositions différentes, en raison de la chaleur générée par la désintégration d’éléments radioactifs.

Les chercheurs ont découvert, pour la première fois, une famille de fragments d’astéroïdes riche en olivine, probablement formée par la fragmentation d’un corps parent partiellement différencié. Cette famille pourrait également provenir de la fragmentation d’un corps riche en olivine, peut-être issu du manteau d’un planétésimal différencié qui aurait pu se briser dans une région différente du système solaire, et l’un de ses fragments aurait pu être implanté dynamiquement dans la ceinture principale.

En effet, l’idée que des astéroïdes pourraient avoir été implantés dans la ceinture principale par des processus dynamiques a été largement étudiée ces dernières décennies. L’un de ces processus dynamiques pourrait être l’instabilité orbitale des planètes géantes. Cela suggère que Jupiter, Saturne, Uranus et Neptune se sont formés sur des orbites rapprochées avant de migrer vers leurs positions actuelles. Cette migration aurait pu déclencher des interactions gravitationnelles avec les planétésimaux, les déplaçant dans le système solaire primitif. Déterminer l’époque de cette instabilité est une question majeure car elle est cruciale pour comprendre son impact sur la déstabilisation des populations de petits corps, la perturbation des orbites des planètes telluriques, et éventuellement son rôle dans leur évolution.

The Conversation

Marco Delbo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 16:55

Pourquoi notre environnement nous semble plat alors que la Terre est ronde ?

Kelly R. MacGregor, Professor of Geology, Macalester College

Tout est une question de perspective : Plus on monte, plus on voit la courbe.
Texte intégral (1011 mots)
Cette image d'une tempête tropicale prise en 2014 depuis la Station spatiale internationale montre clairement la courbure de la Terre. NOAA/Getty Images

Depuis que les Grecs de l’Antiquité ont fait des observations de la Lune et du ciel, les scientifiques savent que la Terre est une sphère. Nous avons tous vu de magnifiques images de la Terre depuis l’espace, certaines photographiées par des astronautes et d’autres collectées par des satellites en orbite. Alors pourquoi notre planète ne semble-t-elle pas ronde lorsque nous nous trouvons dans un parc ou que nous regardons par la fenêtre ?

La réponse est une question de perspective. Les êtres humains sont de minuscules créatures vivant sur une très grande sphère.

Imaginez que vous êtes un acrobate de cirque debout sur une boule d’environ 1 mètre de large. Du haut de la boule, vous la voyez s’éloigner de vos pieds dans toutes les directions.

Imaginez maintenant une petite mouche sur cette boule de cirque. Son point de vue se situerait probablement à un millimètre ou moins au-dessus de la surface. Comme la mouche est beaucoup plus petite que la balle et que son point de vue est proche de la surface, elle ne peut pas voir toute la balle.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


La Terre mesure environ 12,8 millions de mètres de large, et même le regard d’un adulte de grande taille ne culmine qu’à environ 2 mètres au-dessus de sa surface. Il est impossible pour nos yeux de saisir la taille de la Terre sphérique lorsque nous nous trouvons dessus. Vous ne pourriez pas visualiser que la Terre est une sphère même en montant au sommet du mont Everest, qui se trouve à 8 850 mètres au-dessus du niveau de la mer.

La seule façon de voir la courbe de la Terre est de s’envoler à plus de 10 kilomètres au-dessus de sa surface. En effet, la longueur de l’horizon que nous voyons dépend de la hauteur à laquelle nous nous trouvons au-dessus de la surface de la Terre.

Debout sur le sol, sans rien qui bloque notre vision, nos yeux peuvent voir environ 4,8 kilomètres de l’horizon. Ce n’est pas assez pour que la ligne d’horizon commence à montrer sa courbe. Comme une mouche sur une boule de cirque, nous ne voyons pas assez le bord où la Terre rencontre le ciel.

Pour voir l’ensemble de la sphère planétaire, il faudrait voyager avec avec un astronaute ou à bord d’un satellite. Vous auriez ainsi une vue complète de la Terre à une distance beaucoup plus grande.

Les gros avions de ligne peuvent également voler suffisamment haut pour donner un aperçu de la courbure de la Terre, bien que les pilotes aient une bien meilleure vue depuis l’avant de l’avion que les passagers depuis les fenêtres latérales.

Pas tout à fait une sphère

Même depuis l’espace, vous ne pourriez pas déceler quelque chose d’important à propos de la forme de la Terre : elle n’est pas parfaitement ronde. Il s’agit en fait d’un sphéroïde légèrement aplati ou d’un ellipsoïde. Cela signifie qu’autour de l’équateur, elle est un peu plus large que haute, comme une sphère sur laquelle on se serait assis et qu’on aurait un peu écrasée.

Ce phénomène est dû à la rotation de la Terre, qui crée une force centrifuge. Cette force produit un léger renflement au niveau de la taille de la planète.

Les caractéristiques topographiques de la surface de la Terre, telles que les montagnes et les fosses sous-marines, déforment également légèrement sa forme. Elles provoquent de légères variations dans l’intensité du champ gravitationnel terrestre.

Les sciences de la Terre, le domaine que j’étudie, comportent une branche appelée géodésie qui se consacre à l’étude de la forme de la Terre et de sa position dans l’espace. La géodésie sert à tout, de la construction d’égouts à l’établissement de cartes précises de l’élévation du niveau de la mer, en passant par le lancement et le suivi d’engins spatiaux.

The Conversation

Kelly R. MacGregor reçoit des fonds de la National Science Foundation, du Keck Geology Consortium et du Minnesota Environment and Natural Resources Trust Fund (ENRTF).

18.11.2024 à 15:56

50 ans après, Lucy n’a pas encore révélé tous ses secrets

Jean-Renaud Boisserie, Directeur de recherche au CNRS, paléontologue, Université de Poitiers

La découverte de Lucy marque un jalon scientifique très important. Que savons-nous d’elle aujourd’hui et que reste-t-il à découvrir ?
Texte intégral (3187 mots)

Ce dimanche 24 novembre marque le cinquantième anniversaire de la découverte du fossile de l’australopithèque Lucy. Jean-Renaud Boisserie dirige un programme de recherche interdisciplinaire travaillant dans la basse vallée de l’Omo en Éthiopie et ayant pour objectif de comprendre les interactions entre les changements environnementaux et l’évolution des organismes (humains inclus) de cette vallée au cours des quatre derniers millions d’années. Spécialiste des faunes fossiles de la région où à été découvert le fossile de Lucy, il nous renseigne sur l’importance de cette découverte et sur toutes les questions qu’elle soulève encore.


The Conversation : Lucy fait partie du genre Australopithecus et notre espèce du genre Homo : quelles sont les principales différences et ressemblances et notre lien de parenté ?

Jean-Renaud Boisserie : Le genre Homo est caractérisé à la fois par un volume cérébral généralement de grande taille (plus de 600 cm3), même s’il existe des exceptions, par une bipédie obligatoire marquée par diverses adaptations (par exemple jambes longues, bras courts) qui améliore l’endurance et la rapidité des déplacements bipèdes, et par une denture relativement réduite. Bien qu’également bipèdes, Australopithecus gardait une morphologie compatible avec une bonne aptitude aux déplacements arboricoles, présentait une denture le plus souvent « mégadonte » – c’est-à-dire des dents grosses à l’émail très épais (en particulier chez les australopithèques dits « robustes », et un cerveau de taille peu différente de celle des chimpanzés et des gorilles. On sait cela notamment grâce à la découverte d’Australopithecus afarensis.

T.C. : Quelle importance a eu la découverte de Lucy, la plus célèbre représentante de cette espèce ?

J.-R. B. : Cette découverte est un jalon dans notre compréhension de l’évolution humaine en Afrique, puisqu’on se posait un certain nombre de questions avant la découverte de Lucy sur l’ancienneté du genre Homo et le rôle des australopithèques dans l’ascendance de notre genre. Avec Australopithecus africanus en Afrique du Sud, on savait qu’il existait des formes bipèdes avec un cerveau relativement réduit, mais sans dates bien établies dans les années 1970, ce qui était assez problématique.

Côté Afrique orientale, Louis et Mary Leakey avaient mis au jour des australopithèques robustes à partir de la fin des années 1950, assez bien datés vers 1,8 million d’années, ainsi que les restes d’Homo habilis, alors le plus ancien représentant du genre Homo. À partir de 1967, les travaux menés dans la vallée de l’Omo, qui pour la première fois mobilisaient des équipes importantes et pluridisciplinaires, ont permis de découvrir des restes d’australopithèques datant de plus de 2,5 millions d’années, et des restes du genre Homo à peine plus récents.

Au début des années 1970, la découverte sur les rives du lac Turkana du crâne d’Homo rudolfensis – un représentant indubitable de notre genre avec sa capacité cérébrale de près de 800 cm3 – suggérait initialement l’âge très ancien (jusqu’à 2,6 millions d’années) de notre genre et d’une capacité cérébrale importante. Une partie de la communauté scientifique, notamment la famille Leakey, pensait donc que le genre Homo constituait une branche parallèle à celle des australopithèques, qui auraient donc été des cousins éteints, mais pas nos ancêtres.

Reconstruction du squelette fossile de Lucy, Australopithecus afarensis. MNHN Paris, CC BY

La découverte d’Australopithecus afarensis, et notamment de Lucy, a clarifié ce débat. Non seulement l’âge de ces nouveaux fossiles était clairement plus ancien que 3 millions d’années, mais surtout ils incluaient des fossiles bien préservés, en particulier l’exceptionnelle Lucy. Avec 42 os, représentés par 52 fragments, à peu près 40 % du squelette est représenté. Des fossiles humains aussi complets n’étaient alors connus qu’à des périodes beaucoup plus récentes (moins de 400 000 ans).

Avec Lucy, de nombreux autres spécimens ont été découverts dans les années 1970 à Hadar, ainsi qu’à Laetoli en Tanzanie, où ces derniers étaient associés à des empreintes de pas bipèdes dans des cendres volcaniques datées de 3,7 millions d’années.

Tous ces éléments montraient qu’Australopithecus afarensis, bipède à petit cerveau, était nettement plus ancienne qu’Homo (l’âge d’Homo rudolfensis fut d’ailleurs ultérieurement réévalué à moins de 2 millions d’années). Cette espèce pouvait donc être considérée comme ancêtre commun des toutes les espèces humaines ultérieures, notre espèce, Homo sapiens, comprise. C’est devenu l’hypothèse dominante pour décrire l’évolution humaine pendant pour plusieurs décennies.

T.C. : Quelle importance a eu Lucy dans le monde ? La connaît-on partout comme en France ?

J.-R. B. : En France, c’est vrai qu’on la connaît bien parce qu’elle a été très bien présentée par Yves Coppens, un des codirecteurs de l’International Afar Research Expedition, l’équipe qui a découvert Lucy. Avec son immense talent de vulgarisateur, il a réussi à la faire adopter par le public français tout en montrant bien son importance scientifique.

Ce fut la même chose aux États-Unis, où d’autres membres de l’équipe ont mené le même travail de vulgarisation, ainsi qu’en Éthiopie. Mais cela dépasse ce cadre géographique : ailleurs en Europe, en Asie et en Afrique, elle est extrêmement connue. C’est réellement un fossile extrêmement important pour la science internationale en général.

T.C. : Lucy a été présentée comme « grand-mère de l’humanité », cela a été vrai combien de temps ?

J.-R. B. : Après cette découverte d’Austrolopitecus Afarensis qui a conduit à la considérer comme l’ancêtre commun à toutes les espèces humaines plus récentes, il y a tout d’abord eu des espèces plus anciennes qui ont été mises au jour. On connaissait dès le début des années 1970 des fossiles plus anciens, mais ils étaient rares, très fragmentaires et mal conservés.

À partir des années 1990, de nouveaux travaux dans l’Afar, à quelques dizaines de kilomètres au sud de Hadar dans la moyenne vallée de l’Awash, ont révélé la présence d’une espèce plus ancienne qui a été baptisée initialement Australopithecus ramidus, puis Ardipitecus ramidus parce qu’elle a été jugée suffisamment différente pour définir un nouveau genre. Ces restes de 4,4 millions d’années montraient qu’il y avait eu quelque chose avant Lucy et les siens, qui ne représentaient plus le stade évolutionnaire le plus ancien de l’humanité.

D’autres découvertes sont intervenues au tout début des années 2000, avec Orrorin tugenensis au Kenya, daté à 6 millions d’années ; puis Ardipithecus kadabba, de nouveau dans le Moyen Awash, daté de 5,8 à 5,2 millions d’années ; et enfin, Sahelanthropus tchadensis (Toumaï), cette fois en Afrique centrale, au Tchad, plus près de 7 millions d’années.

Australopithecus afarensis n’était donc plus l’espèce la plus ancienne, mais devint potentiellement un jalon au sein d’une lignée évolutionnaire beaucoup plus ancienne.

En parallèle, il y a eu la découverte de formes contemporaines de Lucy, attribuées cette fois à des espèces contemporaines mais différentes. Ça a été par exemple le cas d’Australopithecus bahrelghazali au Tchad, daté entre 3,5 et 3 millions d’années. Dès 1995, ces restes assez fragmentaires montraient un certain nombre de caractères qui suggèrent qu’il s’agit d’une espèce différente de celle de Lucy. D’autres ont suivi, notamment Australopithecus deyiremeda, ou encore une forme non nommée connue par un pied très primitif (« le pied de Burtele »), tous deux contemporains d’Australopithecus afarensis, et issu d’un site voisin de celui de Hadar, Woranso-Mille.

T.C. : Comment détermine-t-on qu’un fossile appartient à telle espèce ou à tel genre ?

J.-R. B. : C’est un degré d’appréciation de la part des scientifiques qui est assez difficile à tester en paléontologie. Prenez par exemple les chimpanzés : il en existe deux espèces légèrement différentes dans leur comportement et dans leur morphologie. Elles sont néanmoins beaucoup plus semblables entre elles qu’avec n’importe quelle autre espèce de grands singes et sont donc toutes deux placées au sein du genre Pan. Les données génétiques confirment largement cela.

En paléontologie, c’est plus compliqué parce qu’on a affaire à des informations qui sont parcellaires, avec la plupart du temps la morphologie pas toujours bien préservée, et finalement peu de données sur les comportements passés. On peut caractériser une partie de l’écologie de ces formes fossiles avec des approximations, et sur cette base, les informations morphologiques et une vision souvent incomplète de la diversité alors existante, on tâche de déduire des critères similaires à ceux observés dans l’actuel pour classer des espèces fossiles au sein d’un même genre.

Pour définir Ardipithecus par rapport à Australopithecus, ce qui a primé, c’est la morphologie des dents, puisque par rapport aux grosses dents à émail épais des australopithèques, Ardipithecus présentait des dents qui sont relativement plus petites, un émail plus fin et des canines relativement plus grosses.

En matière de locomotion, il y a également des différences, bien décrites en 2009. Le bassin de Lucy est très similaire au nôtre, la bipédie est bien ancrée chez Australopithecus. Par contre, chez Ardipitecus, le développement de certaines parties du bassin rappelle ce qu’on voit chez des quadrupèdes grimpeurs, par exemple les chimpanzés. Surtout, on observe un gros orteil (hallux) opposable.

Par contre, les critères sont parfois beaucoup moins objectifs. En dehors de détails mineurs des incisives et des canines, ce qui a conduit à placer Orrorin et Sahelanthropus dans des genres différents d’Ardipithecus est davantage lié au fait que ces restes ont été découverts dans d’autres régions par des équipes différentes.

T.C. : Qu’est-ce qui a changé entre notre connaissance de Lucy au moment de sa découverte et aujourd’hui ?

J.-R. B. : Les grandes lignes de la morphologie des australopithèques n’ont pas fondamentalement changé depuis cette époque-là. Australopithecus afarensis et Lucy ont permis de définir des bases qui sont toujours extrêmement solides. Par contre, même s’il y des débats sur certains fossiles, il est très probable qu’il y avait une plus grande diversité d’espèces entre 4 et 3 millions d’années que ce qu’on pensait à l’époque. Avec le fait qu’il y a également des fossiles humains beaucoup plus anciens relativement bien documentés, c’est un changement majeur par rapport à la vision acquise dans les années 1970.

T.C. :Que savons-nous du régime alimentaire de Lucy ?

L’alimentation d’Australopithecus afarensis était certainement assez diversifiée, pouvant incorporer des fruits, mais également des herbacées et peut-être des matières animales. Australopithecus afarensis a vécu au moins entre 3,8 et 3 millions d’années, soit une très longue durée, beaucoup plus importante que les possibles 300 000 ans d’existence proposés pour Homo sapiens. Il a donc fallu une bonne dose d’opportunisme pour pouvoir faire face à des changements environnementaux qui ont parfois été relativement importants au Pliocène.

Il y a diverses techniques qui s’intéressent aux dents parce que ce sont des objets complexes, constitués de plusieurs tissus et incluant des éléments chimiques dont les concentrations peuvent être liées à l’alimentation. Il y a donc des approches qui utilisent ces contenus chimiques, ainsi que d’autres qui sont réalisés sur les types d’usures liées à l’alimentation. Ces méthodes et d’autres permettront d’avoir une meilleure compréhension de l’alimentation de ces espèces anciennes.

Australopithecus afarensis, connu par plusieurs centaines de spécimens, rarement aussi complets que Lucy même si certains s’en approchent, comprenant néanmoins beaucoup de restes dentaires, de mâchoires et d’os des membres, nous offre un véritable trésor sur lequel s’appuyer pour développer de nouvelles approches et répondre aux questions en suspens.

T.C. : Quelles sont les grandes questions qui restent à étudier ?

J.-R. B. : Lucy a encore un bel avenir scientifique devant elle car elle aidera certainement à répondre à plein de questions. Ainsi la caractérisation de la locomotion et les transitions entre les différentes formes de locomotion sont toujours l’objet d’un débat.

Lucy était bipède quand elle était au sol mais son membre supérieur suggère un également une locomotion arboricole. On ne sait toujours pas, néanmoins, combien de temps passait-elle réellement dans les arbres. Et comment et à quel moment se font les transitions entre les formes aux locomotions versatiles (par exemple Sahelanthropus, à la fois bipède au sol et sans doute fréquemment arboricole) et la bipédie plus systématique des australopithèques, puis avec la bipédie obligatoire d’Homo ? Ou encore entre un cerveau de taille similaire à celui des grands singes non humains actuels et le cerveau plus développé du genre Homo ?

Car finalement, les premiers représentants du genre Homo sont surtout bien connus après 2 millions d’années. Avant 2 millions d’années, les spécimens attribués au genre Homo sont essentiellement fragmentaires et donc assez peu connus. Cette transition n’est toujours pas bien comprise, et c’est un de nos objectifs de recherche dans la basse vallée de l’Omo.

Il y a d’autres questions qui se posent au sujet des australopithèques. Comment se développaient-ils ? Est-ce qu’ils présentaient des caractéristiques du développement similaire à celle des chimpanzés, ou plus similaire à celle d’Homo sapiens, c’est-à-dire avec une croissance plus lente, plus étalée dans le temps, et donc avec des jeunes qui naissent avec des capacités amoindries, nécessitant que l’on s’en occupe beaucoup plus.

La question de la naissance est de ce point de vue très importante. Est-ce que les bébés australopithèques avaient un cerveau relativement développé par rapport à la taille finale, comme ce qu’on peut observer chez les chimpanzés, ou est-ce qu’ils avaient un cerveau plus petit comme chez nous, permettant de se faufiler dans le canal pelvien ? Avec la bipédie, le bassin a été modifié et le canal pelvien, par où les naissances doivent s’effectuer, est devenu plus étroit et tortueux. Dans cette configuration, un cerveau trop gros à la naissance coince, et ça ne marche plus. Des travaux en cours sur Lucy et d’autres spécimens apportent des éléments de réponse importants sur ce type de questions.

D’autre part, si toutes les espèces d’australopithèques contemporaines au Pliocène récent sont bien avérées, comment tout ce petit monde coexistait ? À partir de Lucy et jusqu’à relativement récemment, on a toujours eu plusieurs espèces humaines qui ont pu exister de manière contemporaine et même vivre dans les mêmes endroits. Comment est-ce que ces coexistences s’articulaient ? Pour répondre, il y a encore beaucoup de choses à découvrir sur leurs modes de vie, sur leurs écologies, sur leurs alimentations.

The Conversation

Jean-Renaud Boisserie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2024 à 11:37

Préhistoire : nos ancêtres étaient-ils de grands sportifs ?

Tony Chevalier, Ingénieur d'étude en paléoanthropologie, Université de Perpignan Via Domitia

L’activité physique finit par modifier la résistance de vos os. Ce qui permet, en retour, de mieux comprendre comment se déplace l’humanité depuis la nuit des temps.
Texte intégral (3001 mots)
Face à cette scène pleine de vie provenant du Tadrart Acacus (Sahara, Libye), lieu où ont été trouvées des peintures rupestres datées de 12&nbsp;000&nbsp;ans jusqu’au I<sup>e</sup>&nbsp;siècle de l’ère chrétienne, on perçoit concrètement une partie du mode de vie de ces populations du passé. Mais comment savoir ce qui se passait à des périodes bien plus anciennes&nbsp;? Luca Galuzzi, Wikipedia, CC BY-SA

Notre vision des modes de vie aux débuts de l’humanité est souvent influencée par les peintures rupestres ; mais les représentations précises et spécifiques d’humains sont en fait relativement récentes. Pour mieux comprendre la manière dont ceux-ci se déplaçaient, il vaut mieux se pencher sur leurs os, et les analyser en regard de ce que l’on sait de l’ossature des sportifs actuels !


Regarder notre passé nous pousse parfois à nous comparer à nos ancêtres, à mesurer la distance qui nous sépare d’eux, que ce soit sur un plan comportemental ou sur un plan physique. De multiples travaux de recherches ont montré qu’avant la généralisation de l’agriculture, les humains étaient très mobiles, c’est-à-dire qu’ils effectuaient des déplacements fréquents et/ou longs afin d’exploiter leur territoire pour se nourrir et trouver des matières premières pour confectionner des outils. Mais auraient-ils pu courir plus vite ou plus longtemps que nos athlètes ? À quel point étaient-ils actifs ? Pouvons-nous quantifier leurs efforts ?

Si répondre directement à certaines questions est difficile, nous pouvons les détourner et nous demander à quel point l’activité physique des hommes et femmes préhistoriques depuis des centaines de milliers d’années a impacté la structure de leurs os, en particulier ceux des jambes. L’os, par son adaptation au cours de la vie, révèle d’une certaine manière les efforts consentis par un individu : plus il se renforce, plus l’activité était importante.

Plus précisément, nous cherchons à savoir comment une « simple » marche, même chez des personnes très mobiles, a pu induire un renforcement des os si remarquable chez certains de nos ancêtres.

Les mouvements d’inversion et d’éversion du pied, qui consistent à soulever la plante du pied vers l’intérieur ou vers l’extérieur, modifient les contraintes s’exerçant sur la fibula lors de la marche. Ces mouvements sont plus marqués lors des déplacements sur des terrains irréguliers et selon les activités sportives pratiquées. Une fibula particulièrement robuste témoigne de déplacements spécifiques qui entraînent une plus grande mobilité de la cheville. Tony Chevalier, Fourni par l'auteur

L’utilisation des scanners permet d’étudier avec précision la structure interne des os des humains actuels et passés. C’est sur le terrain de l’analyse géométrique des os que se jouera cette rencontre à travers le temps. Bien utilisée, la géométrie des sections osseuses, qui intègrent des diamètres internes et externes, permet d’évaluer la robustesse (c’est-à-dire le renforcement) et la forme des os et faire le lien avec la mobilité d’un individu. Voyons cela en détail.

L’activité physique modifie les os

L’ingénierie mécanique enseigne que les propriétés géométriques d’une structure rendent compte des propriétés mécaniques. De fait, les diamètres externes et internes de la section diaphysaire d’un os permettent d’évaluer la rigidité et la résistance de celui-ci. Plus la diaphyse d’un os aura des diamètres externes et une épaisseur corticale élevés plus elle sera résistante.

Les mesures de robustesse pour les os de la jambe (tibia et fibula) se font à partir des sections des os (ici exemple avec le squelette du Paléolithique supérieur de la grotte du Cavillon, ou Caviglione). Nous étudions la géométrie des sections des diaphyses et particulièrement leur taille et la répartition de l’os cortical (l’os compact représenté en plage grise sur la figure) afin d’évaluer la robustesse des os. Différents indices de robustesse rendent compte de la rigidité et de la résistance relatives des os lors de la flexion et de la torsion de la diaphyse. Les formules des indices intègrent la longueur des os et la masse corporelle de l’individu étudié. Tony Chevalier, Fourni par l'auteur

Quand nous imaginons notre squelette, nous sommes tentés de le percevoir comme une structure rigide et stable. Pourtant, l’os est une matière vivante tout au long de la vie, qui se renouvelle et s’adapte aux contraintes habituellement subies. Par exemple, quand nous marchons, nous exerçons une pression sur nos os, nous les fléchissons et les tordons un peu. En conséquence, à la différence de l’acier, l’os réagit aux contraintes en se renforçant ou s’allégeant. Cette adaptation est d’autant plus efficace si vous êtes jeune. L’os ne s’adaptera pas si un type de contraintes se produit rarement ou si les changements d’intensité dans nos activités physiques sont trop faibles.

Les recherches menées sur les sportifs ont été d’une aide précieuse pour savoir si les variations de sollicitations de nos membres induisaient des variations de la structure osseuse au long de la vie.

Dès les années 70, les travaux réalisés sur les bras des joueurs et joueuses de tennis ont montré une asymétrie élevée en faveur de l’humérus du bras dominant, celui qui tient la raquette. L’augmentation du diamètre de la diaphyse entraîne une plus grande robustesse pour l’humérus du bras dominant, c’est-à-dire une plus grande résistance. Le bénéfice osseux dû à des contraintes générées par le sport peut même dans certains cas perdurer encore 30 ans après l’arrêt d’une pratique sportive.

Désormais, nous savons qu’une activité physique régulière va engendrer des contraintes récurrentes sur un os, et que celui-ci va s’adapter en changeant sa géométrie (taille et forme). Ainsi, en faisant le cheminement inverse, l’étude de la géométrie des os de la jambe serait un moyen de nous renseigner sur la manière de se déplacer de leur propriétaire. Bien entendu, il faut être très prudent lors de ce type d’interprétation. Par exemple, au-delà des multiples facteurs qui peuvent influer sur la structure osseuse, la structure observée chez un adulte préhistorique résulterait en partie de son activité à un jeune âge, à une époque où son os était plus réactif aux stimuli mécaniques.

De la structure des os au comportement des Homo heidelbergensis et des Homo sapiens anciens

Lorsque nous nous intéressons aux os des jambes des espèces humaines anciennes appartenant au genre Homo, c’est en particulier pour comprendre leur mobilité : nous voulons savoir s’ils marchaient beaucoup (haut niveau de mobilité), sans toutefois définir une fréquence de déplacement et une distance journalière. Nous évaluons aussi le type de terrain parcouru, sachant qu’un terrain plat ou avec des reliefs impactera différemment les os. Plus la marche est fréquente et intense, plus le terrain pratiqué est irrégulier, et plus les os subiront de fortes contraintes et se renforceront.

En 2023, nous avons publié nos recherches sur la mobilité d’une femme d’une ancienneté de 24 000 ans provenant de la grotte de Caviglione (Ligurie, Italie). D’après la topographie du lieu de la découverte, cette femme Homo sapiens avait la possibilité de se déplacer à la fois sur des terrains à fort dénivelé et sur des terrains plats, le niveau de la mer étant bien plus bas qu’aujourd’hui. Les résultats ont montré le très haut niveau de mobilité pratiqué par cette femme grâce à ses fémurs et tibias et l’adaptation de ses os à des déplacements fréquents en terrain montagneux grâce à ses fibulas.

Plus précisément, nous avons mis en évidence une robustesse extrêmement élevée des fibulas de cette femme par comparaison à ses contemporains, mais aussi au regard des joueurs de hockeys sur gazon, dont la pratique se caractérise par une grande mobilité de la cheville. Ces résultats suggéreraient la présence d’une activité préhistorique très intense sur des terrains irréguliers. Ce type de terrain implique des mouvements variés de la cheville, et notamment des mouvements latéraux fréquents d’une plus grande amplitude que sur terrain plat, amenant la fibula à supporter plus de poids et donc à se renforcer.

La rigidité des os varie selon le niveau de mobilité et le type de terrain sur lequel les Hommes se déplacent. Les hockeyeurs sur gazon ont des fibulas relativement plus renforcées que celles des coureurs à pied en raison des mouvements fréquents, d’une amplitude élevée, d’éversion et d’inversion du pied qui contraignent davantage les fibulas. Ces mouvements de la cheville expliqueraient également la robustesse élevée des fibulas chez les populations nomades, ou pratiquant l’élevage et l’agriculture, et se déplaçant régulièrement en milieu montagneux. Notons les très hautes valeurs de robustesse des fibulas des individus ayant vécu il y a 24 000 ans et 450 000 ans. Les cercles pleins représentent des données moyennes. Fourni par l'auteur

À 450 000 ans, nous observons également une robustesse très élevée des fibulas humaines, associée à un fort étirement de la diaphyse du tibia (Caune de l’Arago, Tautavel). Cela plaide pour un haut niveau de mobilité et des déplacements récurrents des Homo heidelbergensis à la fois dans la plaine et sur les reliefs aux alentours de la grotte de Tautavel.

Une robustesse qui questionne

Les forts renforcements observés chez certains Homo heidelbergensis et Homo sapiens anciens, aussi bien des femmes que des hommes, au regard de sportifs confirmés contemporains, sont très étonnants sachant que les hommes préhistoriques sont avant tout des marcheurs et que les contraintes les plus élevées s’exercent sur les os lors de la course à pied.

La robustesse naturellement plus élevée d’un individu préhistorique, c’est-à-dire acquise génétiquement, pourrait expliquer certains des résultats. En étudiant la robustesse relative de la fibula (qui prend en compte pour chaque individu le rapport de résistance entre sa fibula et son tibia), nous éliminons l’influence de ce type de facteurs génétiques sur nos résultats, partant du postulat qu’une robustesse naturellement élevée toucherait autant ces deux os. Pourtant, ce rapport (fibula versus tibia), déterminant pour comprendre les mouvements de la cheville, donne l’un des résultats les plus remarquables pour le squelette de Caviglione (24 000 ans). Il met en exergue la robustesse relative très élevée de ses fibulas.

L’ensemble des résultats plaide pour une influence multifactorielle sur la structure osseuse et par notamment l’impact significatif d’une activité non négligeable et continue au cours de la vie. Un haut niveau de mobilité dès un très jeune âge, lorsque l’os est particulièrement réactif aux stimuli mécaniques, associé à des déplacements en montagne, ou sur d’autres terrains irréguliers, voire à la pratique de la course à pied, pourrait expliquer une telle robustesse à l’âge adulte chez des individus ayant vécu entre 500 000 ans et 20 000 ans.


Pour en savoir plus, retrouvez l’auteur dans le documentaire d’Emma Baus « Tautavel, vivre en Europe avant Neandertal » le 28 novembre 2024 sur France 5 dans l’émission Science grand format.

The Conversation

Tony Chevalier a reçu des financements de l'université de Perpignan via Domitia (UPVD, Bonus Qualité Recherche) et de la fondation UPVD.

14.11.2024 à 11:16

Découverte inattendue d’un lien entre les jets des trous noirs et leurs galaxies hôtes

Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université

Benjamin L’Huillier, Professeur Assistant en Physique et Astronomie, Sejong University

Une toute nouvelle découverte montre que les jets émis par un trou noir sont alignés avec le reste de sa galaxie hôte, malgré des échelles très différentes.
Texte intégral (1389 mots)
Image composite en couleurs de la galaxie Centaurus A, révélant les lobes et les jets émanant du trou noir en son centre. ESO/WFI (Optical); MPIfR/ESO/APEX/A.Weiss et al. (Submillimetre); NASA/CXC/CfA/R.Kraft et al. (X-ray), CC BY

Dans notre étude parue aujourd’hui, 14 novembre 2024, dans la revue Nature Astronomy nous démontrons qu’il existe une connexion entre la région proche d’un trou noir et sa galaxie hôte car les jets émis par le trou noir sont alignés avec le reste de la galaxie.


Une nouvelle analyse des données des radiotélescopes relie les formes des galaxies aux trous noirs qu’elles abritent. Les trous noirs ne sont pas divers. Ils sont toujours d’une seule couleur (noir) et d’une seule forme (sphérique). La seule qualité qui peut varier d’un trou noir à l’autre est la masse.

En général, les trous noirs que nous avons détectés sont soit des trous noirs de masse stellaire, soit des trous noirs supermassifs. Les trous noirs de masse stellaire sont proches de la masse de notre Soleil (1030 kg) et de la taille d’une ville. Les trous noirs supermassifs sont beaucoup plus massifs (un million de fois la masse du Soleil) et ont à peu près la taille du système solaire. Cependant, aussi massifs que soient ces trous noirs, ils ont toujours une masse assez faible, souvent bien inférieure à 1 % de la masse stellaire totale de sa galaxie. Ils sont également beaucoup plus petits que leurs galaxies hôtes, de l’ordre d’un million de fois leur rayon.

Un alignement à des échelles très différentes

Dans de nouveaux résultats que nous publions aujourd’hui 14 novembre dans Nature Astronomy, nous avons découvert qu’il existe une connexion entre la région proche du trou noir et la galaxie hôte, car les jets émis par le trou noir sont alignés avec le reste de la galaxie, malgré les échelles très différentes.

Les trous noirs supermassifs sont assez rares. Notre galaxie, la Voie lactée, en possède un (nommé Sagittaire A* pour la constellation dans laquelle il se trouve) en son centre. Toutes les galaxies semblent également abriter un (ou parfois deux) trou noir supermassif en leur cœur. Les centres, ou noyaux, de ces galaxies lointaines peuvent devenir actifs, car la poussière et le gaz sont attirés vers le noyau sous l’attraction gravitationnelle du trou noir.

Ils ne tombent pas tout de suite, car ils sont animés d’une grande rotation, et forment un disque chaud de matière, appelé disque d’accrétion. Ce disque d’accrétion, à cause de son champ magnétique intense, génère à son tour un jet surchauffé de particules chargées qui sont éjectées du noyau à des vitesses très élevées, proches de la vitesse de la lumière. Lorsque cela se produit, on parle de quasar (source de rayonnement quasi-stellaire).

Un télescope de la taille de la Terre

Une façon courante d’étudier les jets de quasars est d’utiliser l’interférométrie à très longue base (VLBI). Le VLBI permet à différents radiotélescopes de fonctionner en tandem, les transformant ainsi en un seul télescope de la taille de la Terre. La résolution spatiale est alors bien supérieure à celle obtenue avec des télescopes optiques ou infrarouges.

Découverte inattendue d’un lien entre l’alignement des trous noirs et de leurs galaxies hôtes. Vidéo réalisée par Gabriel Robert.

Cet « œil massif » est bien plus efficace pour résoudre les détails fins que n’importe quel télescope individuel, ce qui permet aux astronomes de voir des objets et des structures bien plus petits que ceux visibles à l’œil nu, ou même avec un télescope optique. C’est la technique qui a été utilisée pour réaliser l’« Image du trou noir » pour le halo de lumière généré par le trou noir supermassif hébergé par la galaxie M87.

Ainsi, grâce à cette approche à haute résolution, le VLBI permet aux astronomes d’étudier ces jets jusqu’à quelques années-lumière ou moins de leur origine : le trou noir. La direction du jet à des échelles aussi petites nous informe sur l’orientation du disque d’accrétion, et donc potentiellement sur les propriétés du trou noir lui-même. Et c’est la seule façon d’obtenir de telles données à l’heure actuelle.

Qu’en est-il des galaxies hôtes elles-mêmes ? Une galaxie est un objet tridimensionnel, formé de centaines de milliards d’étoiles. Mais elle nous apparaît (observée en optique ou en infrarouge) en projection, soit comme une ellipse en 2D, soit comme une spirale.

Nous pouvons mesurer la forme de ces galaxies, en traçant le profil de la lumière des étoiles, et mesurer le grand axe et le petit axe de la forme bidimensionnelle.

Dans notre article, récemment publié dans Nature Astronomy, nous avons comparé la direction des jets de quasars avec la direction du petit axe de l’ellipse de la galaxie, et avons découvert qu’ils sont connectés. C’est surprenant, car le trou noir est si petit (le jet que nous mesurons n’a que quelques années-lumière de long), comparé à la galaxie hôte (qui peut mesurer des centaines de milliers d’années-lumière de large). Il est surprenant qu’un objet aussi petit (en comparaison) puisse affecter, ou être affecté, par l’environnement à des échelles aussi grandes. On pourrait s’attendre à voir une corrélation entre le jet et l’environnement local, mais pas avec l’ensemble de la galaxie.

Est-ce que cela a quelque chose à dire sur la façon dont les galaxies se forment ? Les galaxies spirales entrent parfois en collision avec d’autres galaxies spirales et forment des galaxies elliptiques, qui apparaissent dans le ciel comme des ellipses. Au cours du processus de fusion, le phénomène des quasars est déclenché d’une manière que nous ne comprenons pas entièrement. C’est pour cette raison que presque tous les jets qui peuvent être détectés à l’aide du VLBI sont hébergés dans des galaxies elliptiques.

L’interprétation exacte du résultat reste mystérieuse, mais elle est importante dans le contexte de la récente découverte par le télescope spatial James Webb de quasars très massifs (avec des trous noirs supermassifs), qui se sont formés beaucoup plus tôt dans l’univers que prévu. Il est clair que notre compréhension de la formation des galaxies et de l’influence des trous noirs sur ce phénomène doit être mise à jour.

The Conversation

Benjamin L’Huillier a reçu des financements du National Research Foundation of Korea.

Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.11.2024 à 17:08

De la physique à la météo, une petite histoire de la turbulence

Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris

De l’atmosphère aux océans, de la Terre aux autres planètes en passant par le Soleil, les turbulences sont partout. Comment leur compréhension a-t-elle progressé dans l’histoire, où en est-on aujourd’hui ?
Texte intégral (3396 mots)
La météo et la circulation océaniques sont dirigés par des phénomènes turbulents. Norman Kuring, Earth Observatory, NASA, CC BY-NC

La turbulence est un phénomène qui intrigue les physiciens depuis longtemps, et une des raisons pour lesquelles certains phénomènes météo sont encore aujourd’hui difficiles à prévoir.


On attribue à Werner Heinsenberg, physicien connu pour ses travaux en physique quantique et popularisé par la série Breaking Bad, la citation suivante :

« Quand je rencontrerai Dieu, je lui poserai deux questions : pourquoi la relativité ? Et pourquoi la turbulence ? Je crois vraiment qu’il aura une réponse à la première. » Werner Heisenber, vers 1946

Nombreux sont les esprits hantés par la question de la turbulence… et depuis bien longtemps. Si l’histoire de la compréhension de ce phénomène sur des bases scientifiques est le fruit d’un très long processus, ce sont surtout les observations qui ont permis d’en comprendre quelques caractéristiques.

De Vinci, qui avait l’œil de l’artiste et les talents d’observation du scientifique, s’est attelé à représenter ce que l’on nommera au XXe siècle « turbulence » (le terme fut introduit par Taylor et Von Karman). Hiroshige, en voulant représenter le tourbillon de Naruto, fait apparaître les structures complexes du phénomène.

Ce qui se dégage de ces visions d’artiste, c’est que le phénomène fait apparaître du mouvement en forme d’agitation capricieuse et de désordre esthétique représenté sous la forme d’insaisissables tourbillons de différentes tailles.

Deux visions d’artistes de la turbulence : celle de Léonard de Vinci à gauche, datant de 1510, et celle de Utagawa Hiroshige à droite, réalisée en 1855. Wikimedia
photo de nuages et de tourbillons formés par la présence d’une île
Une vision moderne de la turbulence des nuages : un vortex de Von Karman observé en 1999 au large du Chili par le satellite Landsat 7. NASA Goddard Space Flight Center, CC BY

Ces turbulences jouent un rôle crucial dans nombre de phénomènes, par exemple les phénomènes météorologiques et océanographiques (formation des nuages et dynamique des courants océaniques), impactant ainsi les climats terrestres et les événements météorologiques extrêmes. Elles sont aussi importantes en météorologie solaire, qui étudie notamment les éruptions solaires et leurs impacts sur Terre.

Les premières contributions

Au XVIIIe siècle, Daniel Bernoulli et Leonhard Euler, sont les premiers scientifiques à avoir posé les premières bases de la mécanique des fluides avec leurs équations décrivant l’écoulement idéal des fluides, c’est-à-dire sans viscosité. La viscosité représente toute la résistance interne que réalise le fluide pour lui-même. Elle a pour effet de diminuer la liberté d’écoulement du fluide et dissipe son énergie.

Un fluide non visqueux s’étale plus vite qu’un fluide visqueux (Synapticrelay/Wikipedia).

Cela parait contre-intuitif, pourtant, la viscosité va jouer un rôle important pour une description réaliste de la turbulence. Au XIXe siècle, les travaux de George Stokes et Hermann von Helmholtz ont permis d’inclure les effets de la viscosité dans les équations des fluides, ce qui a ouvert la voie à une compréhension plus subtile du phénomène avec le nombre de Reynolds.

Les travaux d’Osborne Reynolds et l’invention du « nombre de Reynolds »

C’est aussi à cette époque qu’ont eut lieu les premières tentatives pour comprendre la transition entre écoulements laminaires (réguliers) et turbulents émergèrent, notamment à travers les études sur les instabilités hydrodynamiques, un phénomène où un écoulement fluide stable devient instable et évolue vers la turbulence sous l’effet de petites perturbations ou fluctuations.

Une étape décisive dans l’histoire de la turbulence est marquée par les expériences d’Osborne Reynolds dans les années 1880 : de l’eau est injectée dans un tube horizontal avec un filet d’encre colorée. À faible vitesse, le filet d’encre reste droit, illustrant un écoulement laminaire où le fluide se déplace de manière ordonnée. À mesure que la vitesse augmente, le filet se disperse de façon erratique, montrant un écoulement turbulent marqué par des tourbillons et des irrégularités. On parle de transition laminaire/turbulent, comme le montre cette vidéo moderne. Source : Le projet Lutetium.

On comprend que le comportement des fluides est contrôlé par un nombre issu d’un rapport entre la dynamique de son « mouvement » et sa viscosité : ce rapport s’appelle le nombre de Reynolds. Cette découverte a jeté les bases pour une classification des régimes d’écoulement en fonction de ce nombre, permettant ainsi de prédire la transition vers la turbulence. On parle d’écoulement faiblement turbulent et de turbulence développé.

L’expérience de Reynolds
Illustration tirée de l’article historique de Reynolds (1883) sur la formation des écoulements turbulents. L’eau s’écoule depuis le réservoir au niveau de l’expérimentateur jusqu’au sous-sol à travers une tuyauterie transparente. La nature turbulente ou laminaire de l’écoulement peut ainsi être observée précisément. Osborne Reynolds/Wikipedia

Des ailes d’avion à la turbulence…

La portance et la trainée (ou flux d’air) autour d’une aile d’avion vue en coupe. Michael32710/Wikipedia, CC BY-SA

Au début du XXe siècle, inspiré par les problèmes d’aérodynamique notamment sur le lien entre la forme géométrique d’une aile et sa performance en vol (portance et traînée), Ludwig Prandtl, développe la théorie des « couches limites ».

Cette théorie se focalise sur une mince région de fluide située près d’une surface solide, appelée « couche limite », où la vitesse du fluide passe de zéro (à la surface solide) à celle de l’écoulement principal (loin du solide). Elle permet d’analyser séparément les effets de frottement visqueux, facilitant ainsi l’étude des portance et traînée et de la manière dont la turbulence se développe près des surfaces solides et dans les écoulements à grande vitesse.

La révolution de l’approche statistique

Dès 1895, Reynolds avait ouvert la voie à une approche statistique de la turbulence en émettant l’hypothèse que les écoulements turbulents peuvent être décrits en une somme d’un « comportement moyen » et de fluctuations.

Puis, dans les années 1920, Geoffrey Ingram Taylor et Lewis Fry Richardson proposent indépendamment de considérer les écoulements turbulents comme étant constitués de plusieurs échelles, tant spatiales que temporelles. En effet, les écoulements turbulents sont caractérisés par des tourbillons de tailles et de durées de vie variées, qui sont à l’origine de mouvements complexes à différentes échelles spatiales et temporelles.

À leur suite, Kolmogorov développe une approche basée sur des probabilités — un peu comme la physique quantique, qui s’est développée via la probabilité.

Cette approche statistique reste encore aujourd’hui un cadre essentiel pour comprendre les écoulements turbulents. En effet, elle permet de modéliser un comportement « imprévisible » en se concentrant sur des grandeurs moyennes et les fluctuations autour de ces valeurs, plutôt que de chercher à prévoir chaque mouvement individuel. Par ailleurs, les concepts clés de la théorie du chaos, tels que les attracteurs étranges et la sensibilité aux conditions initiales, sont aussi un ensemble d’outils mathématiques très utilisés pour caractériser l’apparition de phénomènes complexes.

schéma de cascade turbulente
La cascade turbulente désigne le processus par lequel l’énergie cinétique des grands tourbillons est progressivement transférée vers des tourbillons de plus en plus petits, qui finissent par la dissiper sous forme de chaleur. Waleed Mouhali, Fourni par l'auteur

D’ailleurs, Heisenberg, lors de sa résidence surveillée à Cambridge en 1945 comme prisonnier de guerre, s’attaqua au problème de la turbulence et retrouva les prédictions de Kolmogorov… alors qu’il ignorait tout de ses travaux publiés en russe.

Clairement, la description statistique de Kolmogorov a introduit une nouvelle conception des choses (en plus d’expliquer les observations expérimentales) : la turbulence ne serait qu’une manifestation d’un phénomène de cascade d’énergie, où l’énergie injectée à grande échelle est transférée aux petites échelles avant d’être dissipée par l’intermédiaire de tourbillons de différentes échelles. En d’autres termes, cette approche révèle les mécanismes physiques sous-jacents à la turbulence.

La turbulence aujourd’hui

Encore aujourd’hui, une meilleure compréhension de cette cascade d’énergie permettrait de réaliser des prédictions, offrant ainsi des applications cruciales, telles que l’amélioration de la performance des éoliennes, une meilleure gestion des catastrophes naturelles, une meilleure prévention d’évacuation pendant les saisons des ouragans et la sécurisation des trajets aériens. Ces avancées offriraient des bénéfices considérables en termes de performance et de sécurité dans divers domaines.


À lire aussi : Pourquoi il est si difficile de prévoir les orages d'été



À lire aussi : Pourquoi la science des fluides est au cœur des défis du 21e siècle


Bien que des progrès significatifs aient été réalisés, notamment grâce aux simulations numériques, le comportement turbulent reste un phénomène difficile à prédire et à contrôler en raison de sa nature chaotique et multiéchelle. Il n’y a toujours pas de théorie explicative universellement acceptée.

Pour étudier les turbulences, deux approches sont couramment utilisées aujourd’hui : d’une part l’analyse statistique d’un grand nombre de réalisations d’un même écoulement pour en extraire les comportements moyens et dominants (par exemple, certains radars d’aéroport sont utilisés pour repérer la turbulence atmosphérique), et l’examen détaillé d’une seule réalisation pour identifier les structures dynamiques fondamentales responsables des mouvements observés.

The Conversation

Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.11.2024 à 17:41

Cybersécurité : un grand concours pour résister à la menace des ordinateurs quantiques

Philippe Gaborit, Professeur en informatique, Université de Limoges

Difficile de savoir quand précisément les ordinateurs quantiques seront capables d’attaquer les communications sécurisées, mais la cryptographie commence déjà à s’adapter.
Texte intégral (1834 mots)

Les agences de sécurité du monde entier sont en train s’armer pour que les communications sécurisées sur Internet le restent quand les ordinateurs quantiques débarqueront.

Pour trouver des algorithmes résistants aux futurs ordinateurs quantiques, un organisme américain a lancé un grand concours, auquel participent de nombreuses équipes de recherche. La France est en pointe dans le domaine — explications par un des chercheurs impliqués.


La cryptographie est au cœur de la sécurité des systèmes d’information, dont Internet, et en particulier de la sécurité des paiements en ligne. Pour utiliser l’image simple d’une effraction dans un appartement : la cryptographie s’occupe d’assurer la solidité de la porte et qu’on ne puisse l’ouvrir qu’avec la clef. Pour cela, on code les informations, et seule la clef permet de les décoder.

La cryptographie repose sur des problèmes mathématiques suffisamment complexes pour que les ordinateurs actuels ne puissent pas les résoudre en un temps raisonnable, par exemple le problème de la factorisation des grands nombres. Mais quantité de ces problèmes seront vulnérables aux attaques de futurs ordinateurs quantiques, plus puissants que les ordinateurs actuels.

En 2015, devant le risque que faisait peser sur la cryptographie le développement d’un ordinateur quantique suffisamment puissant, la National Security Agency (NSA) a enjoint l’administration américaine à changer de paradigme pour passer à une cryptographie résistante aux ordinateurs quantiques, dite « cryptographie post-quantique ».

Suite à ce communiqué, l’Institut des standards américains (NIST) a lancé un concours international : pour gagner, il faut proposer de nouveaux algorithmes cryptographiques résistants aux attaques quantiques. Les gagnants deviendront les standards du domaine : ils auront vocation à être utilisés pour sécuriser toutes les communications dans le monde.

Les enjeux traversent les frontières. S’il est difficile d’évaluer précisément le moment où les systèmes cryptographiques actuels pourront être cassés par un ordinateur quantique, on est sûrs que la transition technique vers un nouveau système prendra du temps, et il faut commencer à la préparer dès maintenant.

Les futurs ordinateurs quantiques, une menace pour les systèmes cryptographiques actuels

Bien que le premier algorithme destiné à être exécuté sur un ordinateur quantique ait été décrit en 1994, le développement d’ordinateurs quantiques réels se fait très lentement. En effet, ils posent des problèmes techniques physiques particulièrement compliqués à résoudre : la puissance d’un ordinateur quantique dépend du nombre de « bits quantiques » (ou qubits) qu’il contient, mais ceux-ci sont difficiles à assembler en grand nombre… à tel point que les premiers ordinateurs quantiques ne possédaient que quelques qubits opérationnels, et ne servaient pas à grand-chose pour calculer.

Ainsi, pendant les années 2000, la puissance des ordinateurs quantique augmentait très lentement, ce qui poussait certains à penser qu’un ordinateur quantique suffisamment puissant pour poser des problèmes de sécurité ne verrait jamais le jour.


À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique


Les choses ont changé au début des années 2010 lorsque les grands groupes américains du GAFAM se sont mis à s’intéresser à l’ordinateur quantique et à financer de manière très importante de tels projets, qualifiés par certains de « projet Manhattan du XXIe siècle ».

En quelques années, on est passé de quelques bits, à quelques dizaines de qubits, à plus de 1000 qubits aujourd’hui. Si la situation a considérablement évolué en 20 ans, la réalisation d’un ordinateur quantique suffisamment efficace pour casser un système de cryptographie n’est probablement pas pour demain, tant il reste de nombreux défis physiques à résoudre… mais le sujet est aujourd’hui au premier plan au niveau international, et des start-up font de nouvelles avancées chaque jour. En France, on peut citer en particulier Pasqal et Candela.

Et même s’il reste probablement une bonne dizaine d’années avant de pouvoir éventuellement arriver à casser concrètement un système de type RSA (un système cryptographique très utilisé aujourd’hui), la « menace quantique » a déjà commencé : avec des attaques de type « harvest now and decrypt later », on peut envisager qu’un attaquant collecte des données aujourd’hui et les déchiffre lors de l’avènement de l’ordinateur quantique.

Des problèmes mathématiques difficiles, même pour un ordinateur surpuissant

Une cryptographie résistante aux attaques d’ordinateurs quantiques reposera sur une catégorie particulière de problèmes mathématiques : celle des problèmes réputés « difficiles », qui résisteront a priori aux ordinateurs quantiques.

De tels problèmes difficiles sont connus depuis des années : le premier, dit « système de McEliece » a été introduit en 1978. Mais ces problèmes difficiles ont souvent l’inconvénient d’être plus gros en taille que les systèmes classiques.

Il est important de bien comprendre qu’un ordinateur quantique ne sera pas capable de casser facilement n’importe quel type de problème difficile (en fait, on connaît très peu d’algorithmes quantiques qui cassent des problèmes efficacement), mais la catégorie des problèmes résolus beaucoup plus efficacement par un ordinateur quantique englobe tous les problèmes utilisés pour les systèmes de cryptographie à clef publique actuels.

En pratique, on utilise aujourd’hui un processus de cryptographie en deux étapes, le « chiffrement hybride » : les ordinateurs quantiques ne devraient a priori pas mettre en danger la première étape (dite « partie symétrique ») car il suffira de doubler la taille des clefs pour que même un ordinateur quantique ne puisse pas les attaquer. En revanche, la seconde étape (dite de « partage de secret ») est rendue inutilisable par le premier algorithme quantique inventé en 1994, l’algorithme de Shor. C’est pour cette seconde partie qu’il convient de trouver des systèmes alternatifs résistants aux attaques quantiques.

Un grand concours pour trouver de nouveaux algorithmes

Des concours publics internationaux ont déjà été organisés avec succès par le NIST pour définir les précédents standards de la cryptographie en 1996 et en 2008.

Le concours post-quantique a débuté en novembre 2017 et a pour objet de trouver des algorithmes de chiffrement, de partage de secret et de signature, les trois principaux types d’algorithmes de la cryptographie à clef publique moderne.

Soixante-quatre algorithmes de chiffrement ont été soumis. Au fur et à mesure d’un processus transparent qui s’est déroulé sur plusieurs années et à travers plusieurs tours qui filtraient les candidats. Il s’agit d’un processus complexe où l’on cherche des algorithmes à la fois efficaces et sécurisés et où les chercheurs sont invités à tester la robustesse des algorithmes pressentis, ainsi certains concurrents ont même été éliminés très tard dans le processus parce qu’ils ont été attaqués efficacement et donc démontrés non robustes (par exemple le système SIKE à l’été 2022).

En 2022, le NIST a choisi un premier groupe d’algorithmes pour la standardisation : KYBER pour le chiffrement ainsi que trois algorithmes (Di Lithium, Falcon et Sphincs) pour la signature.

Il espère aussi annoncer cet automne (2024) un ou deux nouveaux standards pour le chiffrement, choisis parmi les algorithmes encore en course : McEliece, HQC and BIKE.

En parallèle, le NIST a commencé un nouveau concours en juin 2023 spécialement pour les signatures post-quantiques pour augmenter la diversité des algorithmes. Le concours vient juste de commencer et a accueilli 40 candidats. Les résultats du premier tour sont arrivés en octobre 2024 et 14 candidats passent au second tour.

Durant tout le processus, la France a été très représentée dans de nombreuses soumissions sur tout type de problèmes difficiles. Le pays est très en pointe pour la cryptographie post-quantique, notamment grâce aux financements France 2030 et grâce aux efforts dans la durée de la part d’organismes de recherche nationaux comme le CNRS et l’INRIA.

Concrètement, que changent les nouveaux algorithmes post-quantiques par rapport aux systèmes de cybersécurité actuels ?

D’une manière générale, les nouveaux algorithmes post-quantiques sont plus gros en termes de taille de paramètres. Dans certains cas, la taille des données cryptographiques envoyées (petite à la base) peut être multipliée par 10 ou 20, ce qui oblige à faire évoluer aussi une partie de la chaîne globale de la sécurité et un travail d’adaptation général sur un certain de protocoles de sécurité existants qui utilisent la cryptographie en boite noire. Les chercheurs et les industriels travaillent sur le sujet depuis des années pour rendre la transition vers ces nouveaux algorithmes cryptographiques la plus efficace et sécurisée possible.

D’un point de vue plus concret, il existe des groupes de travail dans divers campus de cybersécurité à la fois au niveau national et en régions et l’ANSSI (l’agence de sécurité française qui régule l’utilisation de la sécurité et de la cryptographie en France) est en train de mettre en place des procédures de certification pour des produits utilisant la cryptographie post-quantique, avec pour but que les entreprises aient pu faire une transition d’ici 2030, c’est-à-dire… demain.


Le projet CBCRYPT a été soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Philippe Gaborit a reçu des financements de France 2030 (PEPR Quantique) et de l'ANR (projet CBCRYPT https://anr.fr/Projet-ANR-17-CE39-0007).

12.11.2024 à 17:35

Les oursins comme bioindicateurs de la pollution marine

Ouafa El Idrissi, Enseignant chercheur en biologie et écologie marine, Université de Corse Pascal-Paoli

Sonia Ternengo, Maître de conférences HDR en biologie et écologie marine, Université de Corse Pascal-Paoli

Les oursins servent de bioindicateurs pour suivre la contamination des écosystèmes côtiers par les éléments traces (longtemps appelés métaux lourds). Un exemple en Corse près d’une ancienne mine.
Texte intégral (2160 mots)

Les oursins se révèlent être de précieux bioindicateurs pour suivre la contamination des environnements marins par les éléments traces (longtemps appelés métaux lourds). Un exemple en Corse, lieu privilégié d’étude des écosystèmes côtiers, à proximité d’une mine fermée depuis plus de 50 ans.


Interfaces fragiles entre les milieux terrestres et marins, les écosystèmes côtiers sont soumis à une pression croissante due aux activités anthropiques. L’expansion des secteurs industriel, agricole et urbain entraîne l’introduction d’une quantité considérable de produits chimiques dans ces écosystèmes.

Ces substances présentent souvent des propriétés toxiques susceptibles de causer des dommages multiples à l’échelle des organismes, des populations et des écosystèmes, menaçant non seulement la biodiversité marine mais aussi les services écosystémiques qu’ils fournissent.

Les éléments traces : une menace invisible

Les éléments traces, autrefois appelés métaux lourds, font partie des contaminants les plus répandus dans l’écosystème marin. En raison de leur toxicité, leur persistance et leur capacité à s’accumuler dans les organismes marins, ces derniers sont considérés comme de sérieux polluants dans l’environnement marin.

Bien que naturellement présents dans l’environnement à faible concentration, les éléments traces peuvent rester en solution, s’adsorber sur des particules sédimentaires, précipiter au fond ou encore s’accumuler et connaître « une bioamplification » dans les chaînes alimentaires atteignant ainsi des niveaux toxiques. Une surveillance constante de leur présence et leur concentration est donc essentielle face à ces menaces.

Le cas de l’oursin violet comme bioindicateur de contamination

Afin d’évaluer les niveaux de contaminants dans l’écosystème, des organismes peuvent être utilisés comme bioindicateurs. Ces organismes ont la capacité d’accumuler des polluants dans leurs tissus permettant ainsi d’évaluer la qualité de leur environnement.

De par sa large distribution, son abondance dans les écosystèmes côtiers, sa facilité de collecte, sa longévité, sa relative sédentarité et sa bonne tolérance aux polluants, l’oursin violet Paracentrotus lividus (décrit par Lamarck en 1816) est un organisme reconnu pour son rôle de bioindicateur.

L’utilisation de biomarqueurs représente également une approche clé dans la biosurveillance marine permettant d’évaluer les liens entre l’exposition aux polluants environnementaux et leurs impacts sur les individus et les populations. Les effets des polluants dans les écosystèmes marins peuvent être mesurés à travers des paramètres biochimiques.

De nombreuses études suggèrent que l’exposition à divers éléments traces est susceptible d’entraîner des dommages irréversibles chez les organismes marins via la production de molécules oxydantes. Dans ce contexte, il est essentiel d’évaluer, au sein de ces organismes, les activités d’enzymes antioxydantes qui jouent un rôle clé dans la défense contre le stress oxydant. Les teneurs de certains marqueurs d’oxydation dans les tissus des organismes constituent également des indicateurs précieux pour évaluer l’intensité du stress oxydant.

La Corse, un site d’étude privilégié

En raison de ses côtes fortement peuplées, la mer Méditerranée est soumise à de nombreuses pressions anthropiques. Située au nord-ouest de ce bassin, la Corse constitue un site d’étude privilégié pour les écosystèmes côtiers. Ses eaux, souvent considérées comme peu affectées par des sources anthropiques majeures, permettent d’identifier plus facilement les sources de contamination.


À lire aussi : En Méditerranée, ces larves voyageuses de crabes, oursins et autres araignées


Afin d’obtenir des informations sur la qualité environnementale des eaux marines autour de l’île et d’identifier les zones de contamination locale, des prélèvements ont été réalisés. Ces travaux avaient pour objectif de suivre la dynamique spatio-temporelle de 22 éléments traces dans des oursins prélevés sur le littoral corse et d’estimer les effets de cette contamination sur le stress oxydant de P. lividus.

Des indices de pollution, calculés à partir de données issues de la littérature, ont permis de comparer les niveaux de contamination de la Corse à ceux d’autres régions méditerranéennes, comme l’Algérie, la Grèce, l’Italie et l’Espagne. Bien qu’il existe quelques cas de contamination élevée en Corse, les niveaux demeurent faibles en raison de la faible pression anthropique dans la région.

Des éléments traces présents naturellement ou liés aux activités humaines

La plupart des contaminations significatives qui ont été relevées sont attribuées à des sources localisées ou à des caractéristiques spécifiques des sites étudiés. Ainsi, de fortes teneurs en cobalt, chrome et nickel ont été mesurées dans les organes reproducteurs (les gonades) d’oursins à proximité de l’ancienne mine d’amiante à Canari en Haute-Corse. Ces niveaux résultent de déblais non traités rejetés en mer pendant la période d’activité de la mine d’amiante entre 1948 et 1965.

Malgré la fermeture de la mine depuis plus de 50 ans, le procédé utilisé pour récolter des résidus miniers le long du littoral ainsi que la composition géologique du sous-sol (constitué de roches dénommées serpentinites naturellement riches en éléments traces) contribuent encore à la dispersion de ces éléments dans l’environnement marin.

L’évaluation de la qualité des écosystèmes nécessite donc une bonne connaissance du contexte géochimique naturel afin de distinguer les éléments traces naturellement présents dans l’environnement de ceux résultant des activités anthropiques. Cet exemple illustre également comment les activités humaines, même anciennes, peuvent encore avoir un impact sur les écosystèmes.

Le calcul d’un indicateur appelé « Trace Element Pollution Index » – basé sur les concentrations en éléments traces dans les gonades et les tubes digestifs de l’oursin – a permis de déterminer un gradient de contamination avec des teneurs plus élevées au sud de l’ancienne mine d’amiante. Ce phénomène résulte de la migration des déchets miniers vers le Sud, entraînés par la houle et les courants marins dominants.

Cette observation souligne le rôle du milieu marin dans la diffusion et la distribution des contaminants dans l’environnement. Par conséquent, les éléments traces peuvent être largement diffusés à partir des sites sources rendant leur surveillance plus complexe.

Plusieurs études suggèrent que l’exposition à la contamination par les éléments traces peut induire une cascade d’événements qui stimulent des activités d’enzymes antioxydantes chez les oursins.

Dans le cadre de notre recherche, les activités spécifiques les plus élevées des enzymes antioxydantes ont été observées dans la zone sud de l’ancienne mine d’amiante, là où justement la contamination est la plus importante. Toutefois, aucune différence significative entre les sites n’a été mise en évidence. Ces données suggèrent que le système enzymatique antioxydant de P. lividus a protégé son organisme de manière efficace contre les dommages oxydants.

Intégrer aussi les caractéristiques de l’eau (température, acidité, oxygène, etc.)

La contamination en éléments traces varie selon les saisons, avec des concentrations généralement plus élevées en automne et en hiver et plus faibles en été. Cette variation s’explique par des changements physiologiques chez l’oursin. Lors de la production des cellules sexuelles ou gamètes (spermatozoïdes et ovocytes), un phénomène de dilution des concentrations en éléments traces est constaté dans les organes reproducteurs tandis qu’en dehors de cette période la concentration augmente.

Par ailleurs, certains éléments sont essentiels et leur concentration élevée durant la production des cellules sexuelles est considérée comme normale. C’est notamment le cas du zinc étroitement lié au processus de maturation des ovocytes ou cellules sexuelles féminines (l’ovogenèse) et dont les niveaux sont particulièrement élevés chez les femelles.

En conséquence, pour une utilisation optimale des oursins en tant que bioindicateurs, il est crucial de considérer divers facteurs dits « biotiques » et « abiotiques ». Les facteurs biotiques incluent la reproduction et le sexe des oursins qui influencent les concentrations d’éléments traces dans les gonades. Les facteurs abiotiques tels que la température de l’eau, le pH, la teneur en oxygène et la salinité influencent la biodisponibilité des polluants et la capacité des oursins à les accumuler.

Prendre également en compte d’autres bioindicateurs comme les moules et les algues

Par ailleurs, nos résultats ont démontré que les macroalgues et les tubes digestifs d’oursins bioaccumulent plus d’éléments traces que les gonades ce qui les rend particulièrement utiles pour identifier les contaminations locales. Le tube digestif des oursins, en particulier, pourrait être un outil plus précis pour les études écotoxicologiques car il présente généralement des concentrations d’éléments traces plus élevées et est moins affecté par les facteurs liés à la reproduction.

Ainsi, bien que les oursins soient d’excellents bioindicateurs, une approche intégrée avec d’autres organismes tels que des bivalves (les moules notamment) ou macroalgues permet d’obtenir une vision plus globale de la contamination dans les écosystèmes côtiers.

Ces recherches sont cruciales pour comprendre les pressions anthropiques exercées sur les écosystèmes marins et développer des stratégies de gestion environnementale efficaces visant à préserver la biodiversité ainsi que les services écosystémiques essentiels fournis par ces milieux.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 4 au 14 octobre 2024), et dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « océan de savoirs ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Ouafa El Idrissi a bénéficié de la bourse de la Fondation de la Mer, un financement dans le cadre du programme MISTRALS (Mediterranean Integrated STudies at Regional And Local Scales).

Sonia Ternengo a reçu un financement dans le cadre du programme MISTRALS (Mediterranean Integrated STudies at Regional And Local Scales).

12.11.2024 à 17:33

Est-ce vrai que les rhumatismes sont plus douloureux par temps humide ?

Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université

Nos aînés jouent parfois le rôle de station météo ! Grâce à leurs douleurs articulaires, ils peuvent prédire le temps qu’il fera dans la journée. Mais qu’en est-il vraiment ?
Texte intégral (944 mots)
Chez certaines personnes, l'humidité peut aggraver les douleurs liées aux articulations. Geetanjal Khanna/Unsplash, CC BY

Nos aînés jouent parfois le rôle de station météo ! Grâce à leurs douleurs articulaires, ils peuvent prédire le temps qu’il fera dans la journée. Mais qu’en est-il vraiment ?


Les rhumatismes regroupent environ 200 maladies qui touchent les composantes des articulations, soit l’os et le cartilage articulaire. Ils affectent aussi leurs parties molles, comme les ligaments sur les os ou les tendons reliant les muscles aux os. Ils sont classés selon leur origine, en rhumatismes non inflammatoires et inflammatoires. Les premiers comprennent l’arthrose et l’ostéoporose, concernant surtout les personnes âgées, les troubles musculosquelettiques ou la fibromyalgie. Les rhumatismes inflammatoires englobent notamment les formes d’arthrite, telles que la spondylarthrite ankylosante et la polyarthrite rhumatoïde, deux maladies auto-immunes. Aujourd’hui, plus de 16 millions de Français souffrent de rhumatismes.

Pluie ou humidité ?

En 2019, une équipe de l’Université de Manchester a étudié les symptômes de plus de 2500 malades pendant 15 mois. Plusieurs pathologies étaient représentées, comme l’arthrose, la polyarthrite rhumatoïde et la fibromyalgie. Les symptômes ont été recueillis via une application sur smartphone, avec des informations incluant météo, humeur ou activité physique. C’est l’une des premières expériences de science participative à utiliser une application.

Les auteurs suggèrent que ce type de dispositif peut être proposé aux patients pour prévoir leurs douleurs. Ils ont trouvé que ce sont l’humidité relative, c’est-à-dire la saturation de l’air en vapeur d’eau, et la pression atmosphérique, qui corrèlent le plus avec les douleurs articulaires.

Cette corrélation, bien que significative, reste modeste. Par exemple, la modification simultanée des deux variables météorologiques n’entraîne qu’une faible augmentation de la douleur. Trois ans après, une équipe de la même université a décidé de réanalyser les mêmes données. Ils ont déterminé qu’il y a bel et bien un lien entre climat et douleur articulaire, mais qu’il concerne environ 4 % des volontaires. Ces chercheurs expliquent que la douleur est subjective et codée par le cerveau. La réaction varie donc selon les malades, et dépend des différences interindividuelles de l’activation nerveuse.

L’articulation est un baromètre

Le lien entre douleurs articulaires et météo fait l’objet de débats houleux entre scientifiques ! En 2017, une collaboration internationale, menée par le Dr Jena, permit l’analyse des symptômes d’environ 1,5 million d’Américains de plus de 65 ans. Leur conclusion est qu’il n’y a aucune corrélation entre douleurs articulaires et jours de pluie. Quatre jours après, la réponse à cet article scientifique ne s’est pas fait attendre ! Voici comment le Dr Bamji, rhumatologue retraité, débute sa réponse : « La raison pour laquelle le Dr Jena et ses collègues n’ont pas réussi à trouver un lien entre les douleurs articulaires et la pluie est simple. Ils se sont trompés de variable – et à ma connaissance, personne n’a pris en compte la bonne. »

Comment la pluie ou l’humidité relative pourrait influer la douleur des patients… Alors que notre organisme n’a aucun moyen de détecter les fluctuations du taux d’humidité ? Le Dr Bamji précise que l’articulation est une structure permettant la proprioception ou sensibilité profonde. Il s’agit de la capacité, consciente ou inconsciente, à percevoir la position des parties du corps sans utiliser la vision. Dans les tendons sont logés des « propriocepteurs », des récepteurs sensibles à la pression induite par la contraction musculaire. Les propriocepteurs sont également sensibles aux changements de pression atmosphérique.

La pression atmosphérique suit en fait les variations de l’humidité relative. Quant aux propriocepteurs, ils transmettent leurs signaux à des nerfs sensitifs qui transitent vers le cerveau.

Les douleurs articulaires sont liées directement à la pression atmosphérique, et indirectement à l’humidité relative. Chaque patient a un ressenti dépendant de son propre système nerveux central. Le plus important est d’écouter sa douleur, par exemple en tenant un journal quotidien des symptômes !

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.11.2024 à 19:38

Voitures, avions et même satellites : le bois, un matériau de construction d’avenir

Bruno Castanié, Professeur en Structures Composites, Institut Clément Ader, INSA Toulouse

Arthur Cantarel, Maître de conférence - Institut Universitaire de Technologie de Tarbes , IMT Mines Albi – Institut Mines-Télécom

Florent Eyma, Professeur - Institut Universitaire de Technologie de Tarbes, IMT Mines Albi – Institut Mines-Télécom

Joel Serra, Ingénieur-Chercheur en mécanique des structures et matériaux composites, ISAE-SUPAERO

Le tout premier satellite en bois a été lancé dans l’espace. Il a été développé par des scientifiques de l’Université de Kyoto.
Texte intégral (2136 mots)
Le premier satellite en bois de l'histoire vient d'être lancé dans l'espace. Université de Kyoto

Ce mardi 5 novembre, le tout premier satellite en bois a été lancé dans l’espace. Il a été développé par des scientifiques de l’Université de Kyoto. Une preuve que le bois peut être envisagé comme un matériau de construction du futur.


Depuis l’invention de la roue, estimée à 4 000 ans av. J.-C., le bois a été utilisé par l’humanité pour ses déplacements terrestres. Hormis dans le nautisme, il est peu connu que son usage était encore fréquent à la fin du XXe siècle. Parmi les nombreux exemples documentés dans nos articles l’un des meilleurs avions de la Deuxième Guerre mondiale était le Mosquito, produit par De Havilland à 7 781 exemplaires, capable de voler à 680 km/h et dont la structure était faite de bouleau, douglas et balsa.

L’avion De Havilland Mosquito était construit partiellement en bois. Wikimedia, CC BY

Jusqu’à aujourd’hui la société Robin Aircraft, établie à Dijon a produit le DR 400 en construction bois et toile à 2 700 exemplaires. Côté automobile, la société anglaise Morgan utilise encore le frêne pour une partie de ses châssis. Mais un des plus beaux exemples était la Costin Nathan Le Mans 1967 dont la structure était en contreplaqué pour un poids de seulement 400 kg, c’est la moitié de la Ferrari P4 de la même année.

Ces exemples montrent à la fois la légèreté et la résistance du bois mais aussi un savoir-faire en partie perdu. En effet, seule la marque anglaise Morgan utilise encore le bois pour ses voitures en petite série aujourd’hui.

La question de son utilisation est intimement liée à la ressource disponible. Si dans l’hémisphère Sud, la couverture forestière disparaît majoritairement à cause de son utilisation comme bois de chauffe, dans l’hémisphère Nord elle continue à augmenter. Pour l’Union européenne, l’augmentation du stock de bois sur pied a été de 30 % sur la période 2000-2020 et la couverture forestière représente 39 % de la surface des états membres. En France la couverture forestière a doublé en 100 ans. Malheureusement, ce sont essentiellement les résineux qui sont exploités alors qu’une utilisation structurale pour des véhicules nécessiterait des feuillus comme le peuplier ou le bouleau qui sont des essences locales et abondantes.

Le bois, un matériau résistant mais complexe

Nos recherches ont d’abord porté sur la caractérisation mécanique du contreplaqué seul ou pris en sandwich avec d’autres matériaux comme l’aluminium ; les fibres de carbone, de verre mais aussi de lin. Si les résistances trouvées sont satisfaisantes, le contreplaqué s’avère un matériau très complexe du fait de son mode d’obtention. On va trouver des caractéristiques différentes en fonction de la position du bois dans l’arbre (bois juvénile ou adulte, de printemps ou d’été). À cette complexité s’ajoute aussi une forte sensibilité du bois à son environnement en termes d’humidité et de chaleur.

Toutes ces complexités influent sur les caractéristiques mécaniques des plis qui constituent le contreplaqué et pour y remédier nous avons développé des méthodes d’identification grâce aux thèses de John Susainathan et d’Axel Peignon, du postdoctorat d’Hajer Hadiji et de l’ANR BOOST.

Des applications concrètes dans l’automobile

Les véhicules d’aujourd’hui doivent permettre d’absorber les chocs lors d’accidents. Ce sont le plus souvent des tubes en acier ou aluminium qui servent d’absorbeur d’énergie. Il était donc important de connaître la réponse du bois à des crashs. Lors de la thèse de Romain Guélou, nous avons testé des tubes fabriqués avec plusieurs essences (peuplier, bouleau et chêne) avec ou sans des peaux intérieures ou extérieures, en tissus de fibres de verre ou de carbone. Le comportement au crash du bois est très bon. Un tube avec des peaux en carbone et une âme en plis de bouleau a pu absorber l’énergie d’une masse de 170 kg lâchée à 4,2 m de hauteur. On a aussi pu montrer la contribution significative du bois puisqu’en passant de 2 à 6 plis de bouleau, l’énergie absorbée est multipliée par 2.

Tour de chute utilisée à l’Institut clément Ader pour les essais de crash de tube. On voit la masse de 170 Kg à 4,2 m de hauteur. Fourni par l'auteur

Récemment un groupe d’étudiants du département de génie mécanique de l’INSA Toulouse a montré que sur un véhicule léger, librement inspiré de l’Africar (une voiture avec un châssis bois extrêmement robuste conçue dans les années 1980 pour l’Afrique), les contraintes sont faibles et parfaitement supportables par un contreplaqué de bouleau ou de peuplier.

Les études menées à l’INSA Toulouse et à l’Institut Clément Ader depuis 12 ans montrent les possibilités de ce matériau historique que la nature a rendu très avancé pour une mobilité durable. Ces études s’inscrivent dans un mouvement de redécouverte et de réemploi. En France, la société Aura Aéro, basée à Toulouse a développé l’Integral R, avion d’acrobatie bois-carbone en cours de certification. À Belfort, les avions Mauboussin, avec qui nous collaborons, développent un avion dont la structure est en bois en s’inspirant du Mosquito.

À travers plusieurs programmes de recherches, le professeur Ulrich Müller et son équipe autrichienne ont démontré que le remplacement et le calcul de pièces de véhicules par du bois étaient avantageux économiquement et permettaient d’alléger les structures.

Du bois dans l’espace

Mais le plus surprenant est l’utilisation du bois dans l’espace. Deux études sont actuellement en cours, au Japon et en Europe (Finlande), pour utiliser le bois comme matériau de structure de petits satellites.

L’étude japonaise LignoSat Space Wood vient de lancer un satellite en bois de magnolia sur une orbite terrestre basse. En plus d’être respectueux de l’environnement lors de sa fabrication et de brûler complètement dans l’atmosphère terrestre une fois désorbité, un satellite en bois sera largement transparent aux ondes radio. Les antennes de communication et de recherche pourraient ainsi être internes car le bois est transparent aux ondes radio, évitant ainsi des opérations de déploiement hasardeuses. Les tests effectués sur des échantillons de bois à la Station spatiale internationale (ISS) par des chercheurs de l’Université de Kyoto ont confirmé la détérioration minime et la bonne stabilité du bois dans l’espace. Le satellite européen est fabriqué en contreplaqué de bouleau finlandais, mais dopé pour l’aider à résister aux conditions spatiales.

Il existe donc un intérêt croissant pour le bois dans des domaines des transports parmi les plus variés. Si de nombreuses recherches ont été effectuées sur le bois en utilisation génie civil, il reste un domaine quasi vierge pour le contreplaqué dans le domaine des transports malgré un énorme potentiel en termes de développement durable. Des applications aéronautiques et spatiales ont déjà vu le jour mais pour les transports, hormis quelques réalisations d’amateurs éclairés, il n’y a pour l’instant aucune application industrielle.

The Conversation

Castanié Bruno a reçu des financements de l'ANR sur ce sujet.

Arthur Cantarel a reçu des financements de l'ANR.

Florent Eyma et Joel Serra ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

07.11.2024 à 17:16

Physique des particules : il y a 50 ans nous découvrions le quatrième quark

François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité

Il y a tout juste 50 ans, un groupe de physiciens découvrait un nouveau quark, «&nbsp;brique&nbsp;» de base des protons et des neutrons. Récit par l’un de ses découvreurs.
Texte intégral (2086 mots)

Il y a tout juste 50 ans, un groupe de physiciens découvrait un nouveau quark, « brique » de base des protons et des neutrons. Récit par l’un de ses découvreurs.


Au début des années 1970, les physiciens des particules disposaient de deux imposants centres d’accélérateurs pour étudier l’infiniment petit : l’européen CERN à Genève et l’américain Brookhaven près de New York. Chacun abritait un accélérateur de protons de 620 m de circonférence pouvant atteindre l’énergie alors faramineuse de 25 GeV. L’unité d’énergie est ici l’électron-volt (eV), 1eV étant l’énergie d’un électron traversant une tension de 1V. On emploie les multiples : keV (103), MeV (106) et GeV (109). Cela reste infinitésimal rapporté au monde ordinaire. 1 GeV, équivalent de la masse du proton, correspond à une énergie qui élèverait d’un milliardième de degré la température d’un gramme d’eau !

Grâce à ces machines, la physique multipliait le nombre de particules élémentaires en suivant une recette simple : bombardant une cible avec un faisceau de protons accélérés, on analysait les particules qui sortaient. On accumula ainsi environ 200 types d’objets élémentaires, en particulier de nombreuses résonances.

Qu’est-ce qu’une résonance ? Alors que les particules telles que protons, électrons, pions, kaons… peuvent être suivies sur des distances macroscopiques, les résonances se désintègrent dès leur création en donnant deux ou trois particules qu’il s’agit d’associer pour retrouver la résonance originelle. Empiriquement, on remarqua que plus leur masse était élevée, plus leur temps de vie était court jusqu’à atteindre 10-23 s. La discipline languissait depuis plusieurs années sans direction bien assurée devant un zoo hétéroclite à l’aspect assez brouillon.

Le jeu de Lego des quarks

200 objets élémentaires pour construire le monde, ce ne pouvait pas être le mot de la fin. Heureusement, les physiciens Murray Gell-Mann d’une part, et George Zweig d’autre part suggérèrent l’existence de constituants plus élémentaires à la base des particules répertoriées. Gell-Mann les appela quarks et montra que les 200 espèces connues pouvaient se comprendre comme assemblages de trois quarks différents qu’on nomme u, d et s. Zweig les appela « as » mais « quark », qui vient du roman de James Joyce Finnegans Wake, s’imposa.

Les quarks portent des charges électriques qui sont une fraction de la charge élémentaire de l’électron, respectivement +2/3 pour u et -1/3 pour d et s. Avec ces trois objets de base et trois antiquarks associés portant la charge opposée, on reconstruit deux familles de particules :

  • les baryons qui sont des triplets de quarks, par exemple uud et udd forment respectivement les protons et les neutrons ; les charges +1 et 0 sont bien restituées.

  • les mésons qui sont des paires associant un quark et un antiquark,

Avec les trois seuls dés à disposition, la nature construisait toutes les particules connues. Une association manquait, celle du baryon correspondant au triplet sss. C’était la prédiction du modèle. Une recherche fut menée et le « grand Ω » fut découvert à Brookhaven en 1964 à la masse prédite. Gell-Mann reçut le prix Nobel en 1969.

Toutes les particules connues ont une charge électrique +1, 0, -1 celle de l’électron. Des charges non entières supposées caractériser les quarks n’ont jamais été observées librement. Pourtant les quarks existent dans la mesure où ils opèrent au moment des interactions entre particules. Mais, dès qu’ils sont créés, ils « s’habillent » avec d’autres quarks ou antiquarks pour former les particules « réelles », baryons ou mésons. À notre niveau, les quarks restent des objets virtuels, nécessaires pour interpréter les observations.

Les quarks constituent le niveau le plus élémentaire de la matière explorée à ce jour. Leur « taille » est inférieure à 10-18 m alors que les particules qu’ils composent possèdent une taille mille fois supérieure.

La révolution du 10 novembre 1974

En sus des deux laboratoires majeurs cités, il existait des centres plus modestes. En France, une machine à protons fonctionnait à Saclay et une à électrons à Orsay. Il y avait aussi un dispositif en développement sur le campus de Stanford, cœur de la Silicon Valley, au sud de San Francisco. Le laboratoire, appelé SLAC, avait construit un accélérateur « dans le parking », c’est-à-dire entièrement financé sur les frais de fonctionnement, sans demande spécifique de budget, ce qui mérite aujourd’hui d’être souligné ! C’était un dispositif accélérant en sens inverse des électrons et des positrons dans un collisionneur de 80 m de diamètre, d’énergie maximale 4 GeV par faisceau. Il prit le nom de SPEAR, « Stanford Positron Electron Accelerator Ring ».

Autour d’un point d’interaction entre positrons et électrons, un détecteur de conception nouvelle fut construit pour mesurer au mieux tous les produits de la collision. C’était le premier détecteur hermétique qui couvrait tout l’espace pour ne rien laisser s’échapper. On l’appela Mark1.

L’expérience commença à prendre des données dès 1973 et elles étaient embarrassantes. L’ordinateur qui gérait la prise de données enregistrait environ une collision toutes les deux à trois minutes qu’il signalait en émettant un bref son. Ce taux était plusieurs fois supérieur à ce que prédisait la théorie.

Les physiciens dans l’expectative devant le résultat de l’expérience. Fourni par l'auteur

On variait l’énergie en un balayage relativement grossier, en pas de 50 MeV : ainsi, on mesurait le taux de collisions à 2,550 GeV puis 2,600 GeV puis 2,650 GeV… Deux problèmes apparaissaient. Tout d’abord, comme déjà mentionné, le taux d’interaction s’avérait nettement plus élevé que prédit. De plus, les données prises à l’énergie nominale de 3,100 GeV en trois périodes différentes n’étaient pas en accord entre elles, deux périodes donnant des taux beaucoup plus élevés que la troisième. La reproductibilité de la physique semblait violée.

Le signal magique

Et alors, quelqu’un eut l’idée de faire un balayage beaucoup plus fin en énergie. Au lieu d’augmenter de 50 MeV en 50 MeV, on varierait l’énergie en pas plus serré de 2 MeV en 2 MeV. Et là, le miracle se révéla le 10 novembre 1974, c’était un dimanche. Nous étions trois ou quatre dans la salle de contrôle quand l’ordinateur, qui émettait son petit son à chaque nouvelle collision, au lieu de crépiter toutes les deux ou trois minutes, commença à accélérer le rythme. Ce fut le signal magique que tous nous espérions : entre les énergies de 3100 et 3120 MeV, le taux d’interactions, et donc le signal sonore de l’ordinateur, augmenta soudain d’un facteur 100. La « fusillade » dura quelques minutes. Puis, le pic découvert étant dépassé, l’ordinateur reprit son train-train de un coup en deux minutes.

Une structure manifeste s’était révélée, on venait de révéler une « résonance étroite » de masse 3096 MeV et de largeur 87 keV. Cette largeur indiquait un temps de vie 100 fois supérieur à l’attendu. On cherchait un profil de colline jurassienne et on découvrait un pic alpestre. Un phénomène totalement nouveau apparaissait.

Une publication fut vite écrite, signée par un groupe d’une trentaine de physiciens, contingent qui à l’époque semblait monstrueux et qui aujourd’hui s’avère bien modeste. Elle renouvela la vision du monde de l’infiniment petit et l’événement fut appelé la « révolution de novembre 74 »

Il fallait donner un nom. Quelques lettres grecques restaient libres et on choisit Ψ. Pourquoi cette particule possédait-elle une vie aussi longue ? L’interprétation n’était pas évidente. Deux écoles se disputèrent pendant une fébrile semaine au troisième étage du laboratoire où bivouaquaient les théoriciens, entre les tenants de la libération des couleurs, nouvelle « charge » imaginée pour associer les quarks entre eux, et ceux prônant l’apparition d’un nouveau quark. Le verdict tomba : l’expérience venait de découvrir le quatrième quark, appelé c pour charmé. Ceci complétait la liste des constituants élémentaires au-delà des trois quarks u, d et s introduits par Gell-Mann.

Et si un nouveau quark existe, il annonce toute une famille de particules charmées correspondant à toutes les combinaisons permises entre quatre quarks. Déjà, le 17 novembre, on trouvait le méson Ψ’ de masse 3700 MeV, autre avatar de ce qu’on a appelé le charmonium, qui associait un quark c à son anti-c.

Pourquoi « charme » ?

Comme pour les nouveau-nés, le nom charme vient de la facétie d’un parrain. En astronomie, les planètes portent les noms de dieux antiques. Pour les particules, on aurait pu les numéroter, on choisit de les classer selon l’alphabet, grec de préférence. Ainsi Δ, μ, Φ, Σ, Λ… presque toutes les lettres furent mises à contribution. Le grec était favorisé pour que la physique égale en respectabilité sa sœur, la philosophie. Mais, vers les années 1960, le langage évolua. Les nouveaux scientifiques, moins imprégnés de culture classique, passèrent à des noms plus prosaïques. Les particules étranges avec leur quark s (strange) avaient balisé la voie. Charm fut adopté pour le c, et l’histoire se répétera avec le quark b beau (ou bottom) et le quark t vrai (truth ou top). On sait aujourd’hui qu’avec ces six objets la liste des quarks est au complet, il n’y a plus rien à découvrir sur ce front.

Pour clore l’histoire, la même résonance fut découverte indépendamment en collisions de protons à Brookhaven, et là le groupe choisit le nom J. Cette lettre, étrangère au grec, ressemble à un caractère chinois qui s’épelle comme le patronyme de son découvreur. Et pour ne froisser personne, les physiciens continuent à appeler le méson charmé du nom un peu baroque de J/Ψ.

The Conversation

François Vannucci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.11.2024 à 15:40

Comment les grandes éruptions volcaniques ont influencé l’histoire mondiale

Clément Ganino, Maitre de Conférence en Sciences de la Terre, Université Côte d’Azur

La chute de la civilisation minoenne, la Révolution française, la migration d’Européens vers les États-Unis au XIXᵉ siècle. Derrière tous ces événements, l’influence possible d’éruptions volcaniques.
Texte intégral (4199 mots)
Détail du _Cri_ d'Edvard Munch National Gallery of Norway

Le ralentissement spectaculaire de la croissance démographique il y a 74 000 ans, la chute de la civilisation minoenne, la Révolution française, la migration d’Européens vers les États-Unis au XIXe siècle… Derrière chacun de ces événements, l’influence possible d’une éruption volcanique.


Les grandes éruptions volcaniques sont des phénomènes spectaculaires qui peuvent de fait avoir des répercussions sur l’activité humaine, de façon locale ou globale, et ainsi avoir une influence sur l’histoire des civilisations et des arts. D’un point de vue géologique, une éruption consiste en l’émission de magma incandescent (sous forme de coulées ou d’éjectas) de cendres, de poussières et de gaz (vapeur d’eau, dioxyde de carbone ou gaz soufrés) le tout en proportions variables. Le dioxyde de carbone s’il est émis en grande quantité sur une courte période peut avoir un effet direct sur le climat via l’effet de serre.

Les gaz soufrés forment, eux, des aérosols, c’est-à-dire des particules dans l’atmosphère qui occultent une partie du rayonnement solaire. Ces aérosols peuvent ainsi contribuer à ce qu’on appelle un « hiver volcanique » avec une chute brutale des températures. S’ils sont émis en quantité, ces gaz peuvent changer significativement la composition globale de l’atmosphère et ses propriétés optiques. Enfin, après une éruption, le réservoir souterrain d’où provient le magma, « la chambre magmatique », peut se vider entièrement et provoquer ainsi un effondrement du sol en surface qu’on nomme caldeira.

Tâchons de revenir sur quelques éruptions qui ont, de par ces processus d’émission ou d’effondrement, marqué l’histoire, les arts, et peuvent également éclairer quelques enjeux du changement climatique actuel.

Avant l’histoire – une préhistoire volcanique

Si certaines éruptions n’ont pas laissé de traces écrites, elles ont pourtant considérablement impacté l’humanité.

L’éruption de Toba en Indonésie (environ 74 000 ans avant notre ère) a ainsi provoqué un hiver volcanique d’une durée de plusieurs années. Certains auteurs suggèrent qu’elle aurait de ce fait déclenché un goulot d’étranglement démographique chez les premiers Homo sapiens, réduisant la population humaine mondiale à quelques milliers d’individus et ralentissant l’expansion de l’humanité.

Les premiers témoignages de phénomènes éruptifs connus du paléolithique prennent ensuite la forme de peintures rupestres. Dans la grotte Chauvet en Ardèche, par exemple, en plus des représentations d’animaux généralement dangereux et puissants (lions, ours, mammouths, rhinocéros réalisées avec des pigments d’ocre rouge et de charbon), on trouve des gravures figurant le plus ancien témoignage d’éruption volcanique. Un dessin distinctif en gerbes paraboliques a été assimilé à une représentation de fontaines de laves typiques des éruptions dites « stromboliennes ».

Ces dernières sont caractérisées par des explosions d’intensité modérée éjectant à quelques dizaines de mètres de hauteur des particules de lave incandescentes de tailles variées (cendres, lapilli et bombes). La comparaison de l’âge d’occupation de ce site (37 000 à 33 500 ans) avec l’âge des plus jeunes volcans d’Ardèche (entre 19000 ans et 41000 ans) montre qu’il est possible que les habitants aient vécu et témoigné à travers ce dessin d’une éruption volcanique.

Premières représentations volcaniques dans la grotte Chauvet ? Une étude réalisée au Laboratoire des sciences du climat et de l’environnement commentée par le paléoclimatologue Sébastien Nomade.

Cet exemple ne laisse cependant pas présager des conséquences humaines et matérielles des éruptions et il faut attendre le néolithique et la fresque de Çatal Höyük en Turquie pour avoir un témoignage probable des effets d’une éruption. Cette fresque dans une maison néolithique (6 600 avant J.-C.) montre ce qui semble être un volcan en éruption (vraisemblablement le mont Hasan), projetant des cendres ou de la lave vers une série de motifs en damier pouvant être interprétés comme les habitations de cette ancienne ville d’Anatolie centrale en proie à une éruption.

Ces deux exemples témoignent de l’influence des éruptions volcaniques, à minima sur l’imaginaire et sur l’histoire des prémices de l’art dans ces temps très reculés. Mais au-delà du spectacle local d’une éruption telle qu’elle peut être observée à proximité d’un volcan, les « grandes » éruptions volcaniques ont parfois eu un impact reconnu sur les populations de l’antiquité.


À lire aussi : Changement climatique : quel est le rôle des éruptions volcaniques ?


La vulnérabilité des civilisations aux catastrophes naturelles, illustrée par les éruptions volcaniques

L’éruption de Théra (Santorin, Grèce) vers 1600 av. J.-C. a été l’une des plus puissantes de l’histoire. Elle a eu un impact majeur sur la florissante civilisation minoenne et des répercussions sur la proche civilisation mycénienne, commercialement liée aux Minoens. Une quantité massive de cendres a recouvert l’île de Santorin et lors de la formation d’une caldeira, une partie de l’île a été submergée dont la ville antique d’Akrotiri. Cette éruption pourrait d’ailleurs avoir inspiré le mythe de l’Atlantide, raconté par Platon dans ses Dialogues.

Fresque datant de l’âge de bronze dans la ville minoenne sur le site archéologique d’Akrotiri dans l’île de Santorin, en Grèce. fr.wikipedia.org/wiki/Akrotiri_(Santorin)#/media/Fichier :Minoan_fresco,_showing_a_fleet_and_settlement_Akrotiri.jpg

Au-delà de ces impacts majeurs mais locaux, l’éruption de Théra a projeté une immense quantité de cendres et d’aérosols dans l’atmosphère, provoquant des changements climatiques temporaires. L’« hiver volcanique » lié aux aérosols a pu modifier le cycle des moussons et sécheresses contribuant à de mauvaises récoltes dont témoigne le Papyrus égyptien d’Ipou-Our, décrivant de telles famines, ainsi que diverses catastrophes naturelles sous le règne d’Ahmôsis Iᵉʳ (vers 1550-1525 avant J.-C.).

Une éruption comme moteur des révolutions sociétales à la fin du XVIIIème

Le Laki
Le Laki, volcan des révolutions ? Rune S. Selbekk, CC BY

Par la suite, d’autres éruptions majeures ont marqué l’histoire et notamment à la fin du XVIIIe siècle (1783-1784), lorsque le volcan Laki (Lakagigar) entra en éruption en Islande : 12 km3 de lave s’échappèrent alors d’une fissure de 30 km de long libérant de grandes quantités de fluorures dans l’atmosphère. Ces composés, une fois retombés sur les pâturages, provoquèrent une contamination massive intoxiquant le bétail (maladies osseuses, dentaires et mort de nombreuses bêtes). Près de 50 % du bétail islandais aurait péri et 20 % de la population islandaise (soit environ 10 000 personnes) aurait succombé à la famine créée par cet évènement causant l’une des plus grandes catastrophes démographiques dans l’histoire de l’île.

Au-delà de l’Islande, les émissions de gaz soufrés du Laki ont été suffisamment massives pour entrainer un refroidissement global (hiver volcanique) et un hiver particulièrement froid en Europe, affectant les récoltes, notamment en France, et contribuant à des pénuries alimentaires qui ont exacerbé les tensions économiques et sociales. Ces conditions ont été le terreau de la Révolution française (1789) qui elle-même a inspiré multiples soulèvements en Europe et dans le monde. L’histoire politique a ainsi été mise en mouvement par une éruption volcanique pourtant très peu explosive, et dont les volumes émis peuvent paraître dérisoires, notamment s’ils sont comparés à d’autres évènements éruptifs documentés aux échelles de temps géologiques comme la mise en place des grandes provinces magmatiques (Deccan, Sibérie, etc.).


À lire aussi : Quand les éruptions volcaniques provoquent des tsunamis


Les éruptions du XIXᵉ siècle, impressionnisme et expressionnisme

Le Voyageur contemplant une mer de nuages, Caspar David Friedrich, 1818.

Au contraire, l’éruption du Tambora en Indonésie en 1815, a été extrêmement explosive. Elle a entrainé « l’année sans été » de 1816 qui a vu les températures mondiales chuter de plusieurs degrés, provoquant des récoltes désastreuses en Europe et en Amérique du Nord, et entrainant famines et troubles sociaux, cette fois-ci moteur de migrations massives, notamment aux États-Unis. Cette éruption, projetant d’énormes quantités de cendres et de particules dans l’atmosphère, a engendré des couchers de soleil spectaculaires et un « ciel strié » pendant plusieurs mois.

Selon certains auteurs, ils ont pu inspirer des peintres comme William Turner (Le Dernier Voyage du Téméraire ; Le bateau négrier) et Caspar David Friedrich, dont des paysages romantiques, tels que dans le célèbre Voyageur au-dessus de la mer de nuages (1818), pourraient également refléter un ciel teinté par les cendres et les particules résultant de l’éruption.

Le Dernier Voyage du Téméraire (gauche), 1839, tableau exposé à la National Gallery, à Londres et Le bateau négrier (droit), 1840, tableau exposé au Musée des Beaux-Arts de Boston.
Edvard Munch, Le Cri, 1893.

L’éruption cataclysmique du Krakatoa, à la fin du XIXe (1883), en plus des tsunamis dévastateurs qui ont tué des dizaines de milliers de personnes en Indonésie et ses environs, a également entrainé des phénomènes lumineux mondiaux remarquables liés aux particules dispersées dans l’atmosphère. Une étude a ainsi établi un lien entre l’éruption du Krakatoa et le spectaculaire crépuscule qui a inspiré l’une des peintures les plus célèbres du mouvement expressionniste : le Cri. Ce lien entre l’éruption du Krakatoa et l’œuvre de Munch reste débattu, certains auteurs préférant voir dans ce ciel inquiétant une figuration du phénomène purement météorologique des « nuages nacrés ».

Fourni par l'auteur

Outre l’expressionnisme de Munch, certains auteurs estiment que l’impressionnisme de Claude Monet a pu être également influencé par le ciel chargé en aérosols volcaniques du Krakatoa. S’ils inspirent les volcanologues, les grands peintres inspirent également les géochimistes de l’environnement, qui préfèrent eux voir dans certaines de leurs toiles une représentation de phénomènes optiques liés à la pollution atmosphérique croissante en pleine révolution industrielle.

Diminuer la vulnérabilité aux éruptions

Le XXe siècle n’a pas été exempt d’éruptions, mais il a vu apparaître toute une série de mesures destinées à minimiser leurs impacts sur les populations. L’éruption de la montagne Pelée en 1902, dévastant la ville de Saint-Pierre en Martinique, a fait plus de 30000 victimes et engendré un déplacement massif de populations, modifiant la perception des risques volcaniques : les systèmes d’alerte ont été réévalués et des mesures de sécurité se sont développées et déployées dans les régions volcaniques.

De ce fait, l’éruption du Pinatubo (1991), aux Philippines, même si elle a été l’une des plus violentes du XXe siècle, a fait relativement peu de victimes (moins de 100) malgré la synchronicité de cet événement avec le passage du typhon Yunya. La surveillance volcanique couplée à des évacuations massives, a probablement sauvé des milliers de vies. Les systèmes actuels de surveillance des volcans combinent plusieurs techniques : des sismomètres mesurant les vibrations causées par les mouvements de magma, divers capteurs inspectant un éventuel bombement de la surface préalable à une éruption, des satellites de télédétection, des webcams et drones, ainsi que des dispositifs mesurant les émissions de gaz volcaniques. Des campagnes de sensibilisation et d’information et des procédures d’évacuation sont également préparées, limitant l’impact de possibles futures éruptions.

Les éruptions comme laboratoire d’étude

Très récemment, l’éruption sous-marine du Hunga Tonga, survenue le 15 janvier 2022 dans l’océan Pacifique Sud, a été d’une intensité extraordinaire, propulsant des cendres jusqu’à 58 km dans l’atmosphère et déclenchant des tsunamis dans plusieurs régions (l’Océanie mais également le Pérou ou la Californie).

L’éruption cataclysmique du Hunga-Tonga. Japan Meteorological Agency, CC BY

Elle est considérée comme l’une des plus puissantes de l’histoire moderne, déployant une énergie cent fois supérieure à celle de la bombe nucléaire d’Hiroshima. Cette éruption a injecté environ 150 mégatonnes de vapeur d’eau dans la stratosphère, augmentant de 10 % la teneur stratosphérique en vapeur d’eau. Les températures dans la stratosphère tropicale ont de ce fait diminué d’environ 4 °C en mars et avril 2022. Les immenses quantités de vapeur d’eau injectées dans l’atmosphère par ce volcan ont, d’une certaine façon, permis de réaliser une expérience naturelle de géo-ingénierie, cette solution étant parfois envisagée comme une lutte de dernier recours contre le changement climatique.

Les éruptions volcaniques et leur étude n’ont sans doute pas fini d’influencer notre histoire.

The Conversation

Clément Ganino a reçu des financements de l'ANR et du CNRS.

06.11.2024 à 14:37

IRIS²: the new satellite constellation aimed at ensuring communications autonomy for the EU

DIRIS Jean-Pierre, Coordinateur interministériel IRS ² et GOVSATCOM, Centre national d’études spatiales (CNES)

Europe’s first multi-orbital satellite network aims to provide secure EU governmental communications. It will consist of some 300 satellites and is scheduled for full implementation by 2030.
Texte intégral (1161 mots)

The ongoing transition to a digital economy has already had one observable consequence: a sharp rise in the need for connectivity enabling rapid data transmission. In a global market where connectivity offers are evolving quickly, satellites are now achieving technical and economic performances close to those of terrestrial solutions. The enormous advantage is their steady deployment cost, whatever the geographical area, and particularly in “white” zones not covered by terrestrial infrastructures.

The European IRIS² satellite constellation (is part of this transition, which requires more and more data-sharing infrastructure – currently dominated by US players. A satellite constellation enables different users to be connected via multiple satellites, providing a continuous and complete coverage of the planet.

Telecommunications: a strategic challenge for Europe

With several public (China, US) and private (Oneweb, Starlink and Kuiper) constellation initiatives being developed and put into service to meet data processing and connectivity needs, the telecommunications sector is more strategic than ever for France and Europe. The IRIS2 programme is designed to meet this challenge.

After some attempts in the early 2000s, constellations have finally emerged, and projects are now credible and largely financed by public and private funds. Several factors have contributed to this emergence: advances in electronic miniaturisation, the performance of integrated digital components, the drastic reduction in launch costs and the industrial capacity to produce satellites in small series at lower cost.

Faced with the development of satellite telecommunications in low earth orbit (an area of the earth’s orbit up to 2,000 kilometres above sea level), the European Commission has adopted an approach, involving both the public and private sectors, that aims to strengthen Europe’s position in the constellation race to benefit European citizens and their institutions.

Some 300 satellites

The European Union’s secure connectivity satellite constellation programme was decided on in March 2023. IRIS2 (Infrastructure for Resilience, Interconnectivity and Security by Satellite) will be the first multi-orbital satellite network in Europe. Some 300 satellites will be designed, manufactured and deployed in the first phase.

The constellation will provide a secure communications infrastructure for EU government bodies and agencies. The various communication links between users and the satellite command and control links will be protected, and the ground infrastructure will be secured.

The system will guarantee the EU’s strategic autonomy in the field of secure government communications. IRIS2 will also provide commercial services and seek to maximise synergies between government and commercial infrastructures. The constellation will strengthen the position of Europe, its industries and its operators in the world.

IRIS2 is associated with the EU’s existing GOVSATCOM programme, which provides secure government communications based on capacity from licensed operators or member states.

The EU funds IRIS2 with €2.4 billion under the Multiannual Financial Framework (MFF) 2021-2027; additional funding is being considered under the MFF 2028-2035. The funding is complemented by the European Space Agency (ESA) with €600 million (subscribed to in the ESA’s ministerial conference of November 2022), and by private commercial players under a concession contract.

Following validation of the EU’s regulation on the secure connectivity constellation programme in March 2023, the European Commission launched a call for tenders for the main IRIS2 development contract in May 2023. The tender was finalised by a consortium of three operators (Eutelsat, SES and Hispasat) associated with industrial subcontracting partners (Airbus, Thales, OHB, Deutsche Telekom and Orange) for a bid submission on September 2, 2024. The European Commission has examined the offer and just confirmed the contract award, with a view to sign the 12-year IRIS2 concession contract before the end of 2024.

An accessible service

In summer 2023, the European Commission launched a call for tenders to host the constellation’s ground infrastructure, and in April 2024 selected France (Toulouse) Italy (Fucino) and Luxembourg (Bettembourg) to host the IRIS2 control centres.

France’s former prime minister Elisabeth Borne decided to set up a French interministerial coordination for IRIS2 and GOVSATCOM, for which I have been tasked as coordinator, with the participation of representatives from the various ministries and agencies. The main objectives are to coordinate all French activities contributing to the development and operation of these programmes, to ensure a continuous relationship with European contacts (EU, ESA and the European Union Agency for the Space Programme) and to lead the French community of users of the connectivity provided by these programmes.

The aim of IRIS2 is to provide an autonomous and sovereign digital service to every member state of the European Union. Nowadays, space connectivity is indispensable, as it is the most reliable option when terrestrial telecommunication systems do not exist or have been damaged by a conflict or natural disaster, for example.

The programme will provide a wide variety of services to European governments and citizens. The system enables surveillance of borders and remote areas. The programme is indispensable for civil protection, particularly in the event of crises or natural disasters. It improves the delivery of humanitarian aid and the management of maritime emergencies, whether for search or rescue. Numerous smart connected networks – energy, finance, healthcare, data centres, etc. – will be monitored thanks to the connectivity provided by IRIS2. The system will also enable the management of various infrastructures: air, rail, road and vehicle traffic. Added to this are institutional telecoms services for embassies, for example, and new telemedicine services for intervention in isolated areas. Finally, IRIS2 will improve connectivity in areas of strategic interest for foreign security and defence policy: Europe, the Middle East, Africa, the Arctic, the Atlantic and Baltic regions, the Black Sea and the Mediterranean Sea.

The constellation’s satellites will be placed in two different orbits: low (up to 2,000 kilometres) and medium (between 2,000 and 35,786 km). By covering this range, IRIS2 will be able to provide low-latency communications services – i.e., ultra-fast information transmission comparable to the performance of terrestrial networks – and to complement other European space programmes.

IRIS2 is based on advanced technologies, with a relatively limited number of satellites compared with mega-constellations, which consist of many thousands. Its satellites will be designed to meet the environmental and regulatory standards of Europe’s future space law.

The Conversation

DIRIS Jean-Pierre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

05.11.2024 à 16:07

Pourrait-il y avoir une « planète X » cachée dans notre système solaire ?

Sara Webb, Lecturer, Centre for Astrophysics and Supercomputing, Swinburne University of Technology

La présence d’une neuvième planète expliquerait les orbites de certains objets en périphérie du système solaire.
Texte intégral (1607 mots)

En analysant les mouvements de certains objets du système solaire situés au-delà de Pluton, on note que les observations ne collent pas avec la théorie et que l’explication la plus simple serait la présence d’une neuvième planète. Les astronomes mènent l’enquête.


Notre système solaire est un endroit particulièrement encombré. Des millions d’objets s’y déplacent, qu’il s’agisse de planètes, de lunes, de comètes ou d’astéroïdes. Et chaque année, nous découvrons de plus en plus d’objets (généralement de petits astéroïdes ou des comètes) qui élisent domicile dans le système solaire.

En 1846, les astronomes avaient déjà trouvé les huit planètes principales. Mais cela n’a pas empêché les scientifiques d’en chercher d’autres. Au cours des 100 dernières années, nous avons découvert des corps lointains plus petits que nous appelons planètes naines, ce qui correspond à la classification actuelle de Pluton.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


La découverte de certaines de ces planètes naines nous a donné des raisons de penser que quelque chose d’autre pourrait se cacher à la périphérie du système solaire.

Un neuvième planète ?

Ce n’est pas pour rien que les astronomes passent des centaines d’heures à essayer de localiser une neuvième planète, ou « planète X ». En effet, le système solaire tel que nous le connaissons n’a pas vraiment de sens sans elle.

Tous les objets du système solaire tournent autour du Soleil. Certains se déplacent rapidement, d’autres lentement, mais tous obéissent aux lois de la gravité. Tout ce qui a une masse est soumis à la gravité, y compris vous et moi. Plus un objet est lourd, plus il est soumis à la gravité.

La gravité d’une planète est si importante qu’elle influe sur la façon dont les choses se déplacent autour d’elle. C’est ce que nous appelons son « attraction gravitationnelle ». L’attraction gravitationnelle de la Terre est ce qui maintient tout sur le sol.

Par ailleurs, notre Soleil exerce la plus forte attraction gravitationnelle de tous les objets du système solaire, et c’est essentiellement pour cette raison que les planètes gravitent autour de lui.

C’est grâce à notre compréhension de l’attraction gravitationnelle que nous obtenons notre plus grand indice sur la possibilité d’une Planète X.

Des comportements inattendus

Lorsque l’on observe des objets très éloignés, tels que les planètes naines situées au-delà de Pluton, on constate que leurs orbites sont quelque peu inattendues. Elles se déplacent sur de très grandes orbites elliptiques (en forme d’ovale) et sont groupées.

Lorsque les astronomes utilisent des ordinateurs pour modéliser les forces gravitationnelles nécessaires pour que ces objets se déplacent ainsi, ils découvrent qu’il aurait fallu une planète d’une masse au moins dix fois supérieure à celle de la Terre pour provoquer ce phénomène.

Si la planète X existe, il s’agit probablement d’une géante gazeuse comme Neptune. NASA/Caltech/R. Hurt (IPAC), CC BY

C’est fascinant, mais la question qui se pose alors est la suivante : où se trouve cette planète ?

Le problème qui se pose aujourd’hui est d’essayer de confirmer que ces prédictions et ces modèles sont corrects. Le seul moyen d’y parvenir est de trouver la planète X, ce qui est certainement plus facile à dire qu’à faire.

La chasse continue

Les scientifiques du monde entier sont à la recherche de preuves visibles de la présence de la planète X depuis de nombreuses années.

D’après les modèles informatiques, on pense que la planète X est au moins 20 fois plus éloignée du Soleil que Neptune. On essaie de la détecter en recherchant la lumière solaire qu’elle peut refléter, tout comme la Lune brille grâce à la lumière solaire réfléchie la nuit.

Moon shining in full
La Lune brille la nuit parce qu’elle reflète la lumière du Soleil. S’il existe une planète X,on espère que la lumière qu’elle réfléchit nous permettra de la trouver. Shutterstock

Cependant, comme la planète X se trouve très loin du Soleil, on s’attend à ce qu’elle soit très peu lumineuse et difficile à repérer, même pour les meilleurs télescopes de la Terre. De plus, on ne peut pas la chercher à n’importe quel moment de l’année.

On ne dispose que de petites fenêtres nocturnes où les conditions doivent être parfaitement réunies. Plus précisément, il faut attendre une nuit sans Lune et où l’endroit d’où nous observons est orienté vers la bonne partie du ciel.

Mais ne perdez pas espoir pour autant. Au cours de la prochaine décennie, de nouveaux télescopes seront construits et de nouvelles études du ciel seront lancées. Ils nous donneront peut-être l’occasion de prouver ou d’infirmer l’existence de la planète X.

The Conversation

Sara Webb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.11.2024 à 17:18

La société est biaisée, et cela biaise les IA… voici des pistes de solutions pour une IA vertueuse et une société plus inclusive

Sara Bouchenak, Professeure d'Informatique - INSA Lyon, INSA Lyon – Université de Lyon

Parfois, résoudre un problème apporte d’autres complications. C’est le cas quand on cherche à combiner confidentialité des données sensibles et intelligence artificielle non biaisée.
Texte intégral (2062 mots)
Les stéréotypes s’immiscent dans les modèles d’intelligence artificielle. Amir Geshani, Unsplash, CC BY

Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.


Plusieurs scandales ont éclaté ces dernières années, mettant en cause des systèmes d’aide à la décision basés sur l’intelligence artificielle (IA) qui produisent des résultats racistes ou sexistes.

C’était le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait des biais à l’encontre des femmes, ou encore du système guidant les soins hospitaliers dans un hôpital américain qui privilégiait systématiquement les patients de couleur blanche par rapport aux patients noirs. En réponse au problème de biais dans l’IA et les algorithmes d’apprentissage automatique, des législations ont été proposées, telles que le AI Act dans l’Union européenne, ou le National AI Initiative Act aux États-Unis.

Un argument largement repris concernant la présence de biais dans l’IA et les modèles d’apprentissage automatique est que ces derniers ne font que refléter une vérité de terrain : les biais sont présents dans les données réelles. Par exemple, des données de patients ayant une maladie touchant spécifiquement les hommes résultent en une IA biaisée envers les femmes, sans que cette IA soit pour autant incorrecte.

Si cet argument est valide dans certains cas, il existe de nombreux cas où les données ont été collectées de manière incomplète et ne reflètent pas la diversité de la réalité terrain, ou encore des données qui incluent des cas statistiquement rares et qui vont être sous-représentés, voire non représentés dans les modèles d’apprentissage automatique. C’est le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait un biais envers les femmes : parce que les femmes travaillant dans un secteur sont statistiquement peu nombreuses, l’IA qui en résulte rejette tout simplement les candidatures féminines.


À lire aussi : Le cruel dilemme des données de santé à l’ère de l’IA : vie privée ou équité ?


Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».

Vers une IA décentralisée

Les systèmes d’aide à la décision basés sur l’IA se basent sur des données. En effet, dans les approches classiques d’apprentissage automatique, les données provenant de plusieurs sources doivent tout d’abord être transmises à un dépôt (par exemple, un serveur sur le cloud) qui les centralise, avant d’exécuter un algorithme d’apprentissage automatique sur ces données centralisées.

Or ceci soulève des questions de protection des données. En effet, conformément à la législation en vigueur, un hôpital n’a pas le droit d’externaliser les données médicales sensibles de ses patients, une banque n’a pas le droit d’externaliser les informations privées des transactions bancaires de ses clients.


À lire aussi : Emploi, sécurité, justice : d’où viennent les « biais » des IA et peut-on les éviter ?


Par conséquent, pour mieux préserver la confidentialité des données dans les systèmes d’IA, les chercheurs développent des approches basées sur une IA dite « distribuée », où les données restent sur les sites possesseurs de données, et où les algorithmes d’apprentissage automatique s’exécutent de manière distribuée sur ces différents sites — on parle également d’« apprentissage fédéré ».

Concrètement, chaque possesseur de données (participant à l’apprentissage fédéré) entraîne un modèle local sur la base de ses propres données, puis transmet les paramètres de son modèle local à une entité tierce qui effectue l’agrégation des paramètres de l’ensemble des modèles locaux (par exemple, via une moyenne pondérée selon le volume de données de chaque participant). Cette dernière entité produit alors un modèle global qui sera utilisé par les différents participants pour effectuer leurs prédictions.

Ainsi, il est possible de construire une connaissance globale à partir des données des uns et des autres, sans pour autant révéler ses propres données et sans accéder aux données des autres. Par exemple, les données médicales des patients restent dans chaque centre hospitalier les possédant, et ce sont les algorithmes d’apprentissage fédéré qui s’exécutent et se coordonnent entre ces différents sites.

Avec une telle approche, il sera possible pour un petit centre hospitalier dans une zone géographique moins peuplée que les grandes métropoles — et donc possédant moins de données médicales que dans les grands centres hospitaliers, et par conséquent, possédant a priori une IA moins bien entraînée — de bénéficier d’une IA reflétant une connaissance globale, entraînée de manière décentralisée sur les données des différents centres hospitaliers.

D’autres cas d’applications similaires peuvent être mentionnés, impliquant plusieurs banques pour construire une IA globale de détection de fraudes, plusieurs bâtiments intelligents pour déterminer une gestion énergétique appropriée, etc.

Les biais dans l’IA décentralisée sont plus complexes à appréhender

Comparée à l’approche classique d’apprentissage automatique centralisé, l’IA décentralisée et ses algorithmes d’apprentissage fédéré peuvent, d’une part, exacerber encore plus le biais, et d’autre part, rendre le traitement du biais plus difficile.

En effet, les données locales des participants à un système d’apprentissage fédéré peuvent avoir des distributions statistiques très hétérogènes (des volumes de données différents, des représentativités différentes de certains groupes démographiques, etc.). Un participant contribuant à l’apprentissage fédéré avec un grand volume de données aura plus d’influence sur le modèle global qu’un participant avec un faible volume de données. Si ce dernier est dans d’une certaine zone géographique qui représente un groupe social en particulier, celui-ci ne sera malheureusement pas, ou très peu, reflété dans le modèle global.

Par ailleurs, la présence de biais dans les données d’un des participants à un système d’apprentissage fédéré peut entraîner la propagation de ce biais vers les autres participants via le modèle global. En effet, même si un participant a veillé à avoir des données locales non biaisées, il héritera du biais présent chez d’autres.

Et plus difficiles à corriger

De plus, les techniques classiquement utilisées pour prévenir et corriger le biais dans le cas centralisé ne peuvent pas s’appliquer directement à l’apprentissage fédéré. En effet, l’approche classique de correction du biais consiste principalement à prétraiter les données avant l’apprentissage automatique pour que les données aient certaines propriétés statistiques et ne soient donc plus biaisées ?


À lire aussi : Apprendre à désapprendre : le nouveau défi de l’intelligence artificielle


Or dans le cas d’une IA décentralisée et d’apprentissage fédéré, il n’est pas possible d’accéder aux données des participants, ni d’avoir une connaissance des statistiques globales des données décentralisées.

Dans ce cas, comment traiter le biais dans les systèmes d’IA décentralisée ?

Mesurer le biais de l’IA sans avoir accès aux données décentralisées

Une première étape est de pouvoir mesurer les biais des données décentralisées chez les participants à l’apprentissage fédéré, sans avoir directement accès à leurs données.

Avec mes collègues, nous avons conçu une nouvelle méthode pour mesurer et quantifier les biais dans les systèmes d’apprentissage fédéré, sur la base de l’analyse des paramètres des modèles locaux des participants à l’apprentissage fédéré. Cette méthode a l’avantage d’être compatible avec la protection des données des participants, tout en permettant la mesure de plusieurs métriques de biais.

Capturer l’interdépendance entre plusieurs types de biais, et les corriger dans l’IA décentralisée

Mais il peut aussi y avoir plusieurs types de biais démographiques, qui se déclinent selon différents attributs sensibles (le genre, la race, l’âge, etc.), et nous avons démontré qu’atténuer un seul type de biais peut avoir pour effet collatéral l’augmentation d’un autre type de biais. Il serait alors dommage qu’une solution d’atténuation du biais lié à la race, par exemple, provoque une exacerbation du biais lié au genre.

Nous avons alors proposé une méthode multi-objectifs pour la mesure complète des biais et le traitement conjoint et cohérent de plusieurs types de biais survenant dans les systèmes d’apprentissage fédéré.


Ces travaux sont le fruit d’une collaboration avec des collègues chercheurs, doctorants et stagiaires : Pascal Felber, (Université de Neuchâtel), Valerio Schiavoni (Université de Neuchâtel), Angela Bonifati (Université Lyon 1), Vania Marangozova (Université Grenoble Alpes), Nawel Benarba (INSA Lyon), Yasmine Djebrouni (Université Grenoble Alpes), Ousmane Touat (INSA Lyon).

Le projet CITADEL est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Le projet ANR CITADEL (ANR-24-CE25-6501) soutient en partie ces travaux.

03.11.2024 à 18:46

IRIS² : La nouvelle constellation de satellites européenne

DIRIS Jean-Pierre, Coordinateur interministériel IRS ² et GOVSATCOM, Centre national d’études spatiales (CNES)

Le programme IRIS² constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites.
Texte intégral (1430 mots)

Le programme IRIS2 (Infrastructure de résilience, d’interconnectivité et de sécurité par satellite) constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites et devrait voir le jour en 2030.


La transition de plus en plus forte vers l’économie numérique a une conséquence déjà observable : une augmentation forte du besoin de connectivité permettant la transmission rapide des données. Sur un marché mondial où les offres de connectivité évoluent rapidement, le satellite atteint désormais aujourd’hui des performances techniques (débit, latence en orbite basse) et économiques proches des solutions terrestres (fibre optique). L’énorme avantage est son coût de déploiement constant, quelle que soit la zone géographique, et notamment pour les zones « blanches » non couvertes par les infrastructures terrestres.

La constellation européenne IRIS2 s’inscrit dans cette transition, qui nécessite de plus en plus d’infrastructures de partage de données, dominées actuellement par des acteurs américains. Une constellation de satellites permet de connecter différents utilisateurs au travers de multiples satellites offrant ainsi une couverture instantanée permanente de la planète.

Les télécommunications : enjeu stratégique pour l’Europe

Dans le contexte actuel de développement et de mise en service de plusieurs initiatives de constellations tant publiques (Chine et États-Unis) que privées (Oneweb, Starlink, Kuiper) répondant aux besoins actuels de traitement de données et de connectivité découlant de la transition numérique, le secteur des télécommunications est plus que jamais stratégique pour la France et l’Europe. Le programme IRIS2 vise à répondre à cet enjeu.

Après des tentatives au début des années 2000, les constellations ont enfin émergé et les projets sont désormais crédibles et largement financés par des fonds publics et privés. Plusieurs facteurs ont permis leur émergence, les progrès en matière de miniaturisation électronique, les performances des composants numériques intégrés, la diminution drastique des coûts de lancement et la capacité industrielle de produire en petite série des satellites à moindre coût.

Face au développement des télécommunications par satellites en orbite basse (zone de l’orbite terrestre allant jusqu’à 2 000 kilomètres d’altitude), l’approche adoptée par la Commission européenne associant le secteur public et le secteur privé a pour objectif de renforcer l’Europe dans la course aux constellations au bénéfice des usages du citoyen européen et de ses institutions.

Une constellation de 300 satellites

Le programme de l’Union européenne (UE) de constellation satellitaire de connectivité sécurisée a été décidé en mars 2023. Ce programme, appelé IRIS2 (Infrastructure de résilience, d’interconnectivité et de sécurité par satellite) constituera le premier réseau de satellites multi-orbitaux en Europe. Cette constellation sera constituée d’environ 300 satellites.

Cette constellation fournira une infrastructure de communication sécurisée aux organismes et agences gouvernementales de l’UE. Les différents liens de communication entre utilisateurs et les liens de commande et contrôle des satellites seront protégés, les infrastructures sol sécurisées.

Le dispositif garantira l’autonomie stratégique de l’UE dans le domaine des communications gouvernementales sécurisées. La constellation devra également fournir des services commerciaux et cherchera à maximiser les synergies entre les infrastructures gouvernementales et commerciales. Enfin, la constellation devra permettre le renforcement du positionnement de l’Europe, de son industrie et de ses opérateurs dans le monde.

IRIS2 est associé au programme existant GOVSATCOM de l’UE qui consiste à fournir des communications gouvernementales sécurisées sur la base de capacités provenant d’opérateurs agréés ou des États membres.

IRIS2 est un programme financé par l’UE à hauteur de 2,4 milliards d’euros sur le Cadre financier pluriannuel (CFP) 2021-2027 ; des financements additionnels sont envisagés sur le CFP suivant 2028-2035. Ce financement est abondé par l’ESA à hauteur de 600M€ (souscription au Conseil ministériel de novembre 2022) et des acteurs privés commerciaux dans le cadre d’un contrat de concession.

Après validation du règlement de l’Union européenne sur l’initiative de constellation de connectivité sécurisée dès mars 2023, la Commission européenne a lancé l’appel d’offres relatif au contrat principal de développement de la constellation IRIS2 en mai 2023. L’appel d’offres a été finalisé avec un consortium de 3 opérateurs (Eutelsat, SES, Hispasat) associé à des partenaires industriels sous-traitants (Airbus, Thales, OHB, Deutsche Telekom, Orange) pour une remise d’offre le 2 septembre 2024. Cette offre est en cours d’examen par la Commission européenne dans l’objectif de signer le contrat de concession IRIS2 d’une durée de 12 ans, avant la fin 2024.

Un service de télécommunications toujours accessible

La Commission européenne a lancé à l’été 2023 un appel à candidatures pour l’hébergement d’infrastructures sol de la constellation et a retenu en Avril 2024 pour les centres de contrôle d’IRIS2 la France (Toulouse), l’Italie (Fucino) et le Luxembourg (Bettembourg).

La Première ministre, Elisabeth Borne, a décidé d’établir en France une coordination interministérielle sur IRIS2 et GOVSATCOM, dont il m’a été confié la mission avec la participation des représentants des différents ministères et agences.

Ce point focal national a pour objectifs principaux de coordonner l’ensemble des activités françaises contribuant au développement et à l’exploitation de ces programmes, d’assurer une relation permanente avec les interlocuteurs européens (UE, ESA, EUSPA), d’animer la communauté française des utilisateurs de la connectivité sécurisée fournie par ces programmes.

En termes d’usages l’objectif d’IRIS2 est de fournir un service digital autonome et souverain à chaque État membre de l’Union européenne. De nos jours, la connectivité spatiale est indispensable, celle-ci étant l’option la plus fiable en l’absence de systèmes de télécommunication terrestres (lorsqu’ils n’existent pas ou ont été endommagés par un conflit ou une catastrophe naturelle par exemple).

Le programme fournira une large variété de services aux gouvernements et citoyens européens. Le système permet la surveillance des frontières et des zones reculées. Le programme est indispensable à la protection civile, notamment en cas de crise ou de catastrophe naturelle. Il améliore l’envoi d’aide humanitaire et la gestion des urgences maritimes, que ce soit pour la recherche ou le sauvetage. De nombreux réseaux intelligents connectés – énergie, finance, santé, centres de données, etc. – seront contrôlés grâce à la connectivité fournie par IRIS2.

Le système permettra également de gérer différentes infrastructures : air, rail, route, trafic automobile. À cela s’ajoutent des services de télécommunications institutionnels par exemple pour les ambassades, et de nouveaux services de télémédecine pour l’intervention dans des zones isolées. Enfin IRIS2 améliorera la connectivité de zones d’intérêt stratégique dans le cadre de la politique étrangère de sécurité et de défense : Europe, Moyen-Orient, Afrique, Arctique, Atlantique et les régions de la Baltique, la mer Noire et Méditerranée.

Du côté architecture environ 300 satellites pourraient être conçus, fabriqués et déployés dans un premier temps. Les satellites seront placés sur deux orbites différentes : basse (jusqu’à 2 000 km) et moyenne (entre 2 000 et 35 786 km). En couvrant cette large gamme, la constellation sera en mesure de fournir des services de communication à faible latence – soit une transmission ultra-rapide des informations comparable aux performances des réseaux terrestres – et de compléter les autres programmes spatiaux européens.

The Conversation

DIRIS Jean-Pierre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.10.2024 à 16:47

Ouvrir les modèles d’IA pour qu’ils ne restent pas l’apanage des géants du Web

Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Les modèles d’IA réellement ouverts sont envisageables à moyen terme et doivent être privilégiés pour que l’innovation dans le secteur bénéficie à tous.
Texte intégral (1895 mots)

Les grands modèles de langue, comme celui derrière ChatGPT, sont « fermés » : on ne sait pas comment ils sont mis au point, sur quelles données et avec quels paramètres. Même les modèles dits ouverts ne le sont que très partiellement, ce qui pose des problèmes de transparence et de souveraineté évidents. Développer des modèles ouverts est une alternative réaliste et souhaitable à moyen terme.


De la traduction automatique à la génération de contenu, les modèles de langue (ou modèles de langage) reposent sur des ensembles massifs de données et des algorithmes complexes. L’une des grandes questions pour la communauté de l’Intelligence artificielle est de savoir si ces modèles doivent rester fermés – contrôlés uniquement par quelques grandes entreprises – ou être ouverts et accessibles au public – en particulier aux chercheurs, développeurs et institutions publiques.

Un modèle ouvert présente plusieurs avantages. Premièrement, il permet une plus grande transparence. Les utilisateurs peuvent voir comment le modèle a été formé, quelles données ont été utilisées et quelles décisions algorithmiques sous-tendent ses prédictions. Cela favorise la confiance dans les résultats produits et permet à la communauté scientifique de vérifier et de corriger les biais qui pourraient être présents. Deuxièmement, un modèle ouvert encourage l’innovation. En permettant à d’autres chercheurs, développeurs et entreprises de travailler avec ces modèles, on peut accélérer le développement de nouvelles applications et résoudre des problèmes complexes de manière plus collaborative.

Les modèles fermés quant à eux posent des problèmes importants. Leur opacité rend difficile l’identification des responsabilités juridiques, car il est presque impossible de déterminer quelles données ont été utilisées lors de l’entraînement ou comment les décisions du système ont été prises. Cette opacité crée donc des risques potentiels de discrimination algorithmique, de désinformation et d’utilisation abusive des données personnelles. En outre, ces modèles fermés renforcent les monopoles technologiques, laissant peu de place à la concurrence et limitant ainsi les possibilités de mise au point de solutions concurrentes.

Si, aujourd’hui, les modèles de langue réellement ouverts (open source) sont encore relativement marginaux, ils restent une option envisageable à moyen terme. Pour qu’ils se développent, il faudra non seulement surmonter des obstacles techniques, mais aussi repenser les modèles de financement et de régulation, afin de garantir que l’innovation ne soit pas réservée à une poignée de géants technologiques. Il en va de l’avenir de l’intelligence artificielle ouverte et de son potentiel à bénéficier à l’ensemble de la société.

Lobbying et stratégies d’entreprises

Un lobbying intensif est mené auprès des gouvernements et des instances de régulation pour avancer l’argument selon lequel l’ouverture complète des LLM pourrait mener à des dérives. La crainte d’un mauvais usage, qu’il s’agisse de diffusion massive de fausses informations ou de cyberattaques – voire le fantasme d’une prise de pouvoir par des machines supra-intelligentes, est mise en avant pour justifier la fermeture de ces modèles.

OpenAI, avec d’autres, proclame qu’ouvrir les modèles serait source de danger pour l’humanité. Le débat est en fait souvent difficile à suivre : certains parlent de danger, voire demandent un moratoire sur ce type de recherche, mais continuent d’investir massivement dans le secteur en parallèle.

Par exemple, Elon Musk a signé en mars 2023 la lettre du Future of Life Institute demandant une pause de six mois des recherches en IA, tout en lançant en juillet 2023 xAI, un concurrent d’OpenAI ; Sam Altman, qui dirige OpenAI, parle aussi fréquemment de danger tout en visant des levées de fonds de plusieurs milliards de dollars pour développer des modèles toujours plus puissants.

Si certains croient sans doute vraiment qu’il y a là un danger (mais il faudrait définir lequel exactement), d’autres semblent manœuvrer en fonction de leurs intérêts et des immenses sommes investies.

Des modèles dits « ouverts » qui ne le sont pas tant que ça

Face à cela, d’autres sociétés, comme Méta avec ses modèles Llama, ou Mistral en France, proposent des modèles dits « ouverts ». Mais ces modèles sont-ils réellement ouverts ?

L’ouverture se limite en effet le plus souvent à l’accès aux « poids » du modèle, c’est-à-dire aux milliards de paramètres qui se voient ajustés lors de son entraînement grâce à des données. Mais le code utilisé pour entraîner ces modèles, et les données d’entraînement (ces masses de données cruciales qui permettent au modèle d’analyser et de produire du texte) restent généralement des secrets bien gardés, hors de portée des utilisateurs et même des chercheurs, limitant ainsi la transparence de ces modèles. À ce titre, peut-on vraiment parler de modèle ouvert si seuls les poids sont disponibles et non les autres composantes essentielles ?

L’ouverture des poids offre toutefois des avantages certains. Les développeurs peuvent adapter le modèle sur des données particulières (à travers le « fine tuning ») et surtout, ces modèles offrent une meilleure maîtrise que des modèles complètement fermés. Ils peuvent être intégrés dans d’autres applications, sans qu’il s’agisse de boîte noire uniquement accessible par « prompt engineering », où la façon de formuler une requête peut influer sur les résultats, sans qu’on sache très bien pourquoi.

L’accès aux poids favorise également l’optimisation des modèles, notamment à travers des techniques comme la « quantisation », qui réduit la taille des modèles tout en préservant leur performance. Cela permet de les exécuter sur des machines plus modestes, des ordinateurs portables voire des téléphones.

En rendant les modèles partiellement ouverts, les sociétés propriétaires bénéficient ainsi de l’intérêt de milliers de développeurs, ce qui permet des progrès potentiellement plus rapides que pour les modèles fermés, mis au point par des équipes forcément plus réduites.

Vers des modèles réellement open source ?

Mais peut-on envisager demain la création de modèles de langage réellement open source, où non seulement les poids, mais aussi les données d’entraînement et les codes d’apprentissage seraient accessibles à tous ? Une telle approche soulève des défis techniques et économiques importants.

Le principal obstacle reste la puissance de calcul nécessaire pour entraîner ces modèles, qui est actuellement l’apanage des entreprises dotées de ressources colossales (Google, Meta, Microsoft, etc.) ; OpenAI, ou Mistral en France, ont recours à de la puissance de calcul proposée par différents acteurs, dont les géants de l’informatique suscités. C’est en partie pour couvrir ces coûts – l’accès la puissance de calcul – que ces entreprises doivent régulièrement lever des fonds importants. Le coût énergétique, matériel, et en ressources humaines est prohibitif pour la plupart des acteurs.

Pourtant, des initiatives existent. Des communautés de chercheurs et des organisations à but non lucratif cherchent à développer des modèles ouverts et éthiques, basés sur des jeux de données accessibles, ou du moins transparents.

Ainsi, Allen AI (centre de recherche privé à but non lucratif, financé à l’origine par Paul Allen, le cofondateur de Microsoft décédé en 2018) a mis au point les modèles Olmo et Molmo (modèle de langue et modèle multimodal), qui sont complètement ouverts.

SiloAI, une entreprise finlandaise, en collaboration avec l’Université de Turku a mis au point un modèle multilingue complètement ouvert, Poro, performant pour les langues scandinaves.

En France, Linagora et d’autres travaillent aussi à mettre au point des systèmes ouverts, dans la continuité de Bloom (un modèle complètement ouvert, mis au point par un collectif de chercheurs sous l’impulsion de la société Hugging Face en 2022).

Le modèle économique de ces initiatives reste à déterminer, de même que le retour sur investissement à terme des sommes colossales actuellement en jeu sur ce thème au niveau international.

En pratique, ces modèles sont souvent entraînés sur des infrastructures publiques (Lumi en Finlande pour Poro, Genci en France pour Bloom) : il s’agit souvent de collaborations entre universitaires et entreprises privées pouvant ensuite commercialiser les solutions développées, puisqu’un modèle ouvert n’est pas synonyme de complètement gratuit, et des services annexes comme l’adaptation des modèles pour des besoins particuliers peuvent contribuer au financement de telles initiatives.

Une autre piste se situe dans le développement de modèles de langue spécialisés, moins coûteux en termes de données et d’infrastructure, mais qui pourraient répondre à des besoins spécifiques, ce qui permettrait à des entreprises ou des acteurs plus modestes de tirer leur épingle du jeu.

The Conversation

Thierry Poibeau est membre de l'Institut Prairie-PSAI (Paris AI Research Institute - Paris School of Artificial Intelligence) et a reçu des financements à ce titre.

29.10.2024 à 16:38

Est-il vrai qu’il y a plus de microbes que de cellules dans le corps humain ?

Valérie Lannoy, post-doctorante en microbiologie, Sorbonne Université

Il est difficile de faire nos courses sans qu’il ne nous soit proposé des produits pour protéger notre microflore&nbsp;! Notre corps hébergerait dix fois plus de bactéries que de cellules. Vraiment&nbsp;?
Texte intégral (1010 mots)

Il est difficile de faire nos courses sans qu’il ne nous soit proposé des produits pour protéger notre microflore ! Notre corps hébergerait dix fois plus de bactéries que de cellules. Vraiment ?


La microflore ou microbiote est l’ensemble des micro-organismes qui résident normalement dans notre corps. Ses secrets ont été vulgarisés par la Dre Giulia Enders dans son livre « Le charme discret de l’intestin ». Ce best-seller a largement contribué à l’engouement autour du sujet ! Pourtant, la découverte de la microflore intestinale a plus d’un siècle. Nous la devons au microbiologiste Élie Metchnikoff, prix Nobel de médecine en 1908. Avec le temps, les avancées technologiques ont facilité l’étude du microbiote, et c’est en 1977 que le célèbre ratio d’une cellule humaine pour dix bactéries est publié par le microbiologiste américain Dwayne Savage.

Des quantités de microbes et de cellules difficilement mesurables

En 1972, le biochimiste Thomas Luckey a évalué que chaque gramme de selles humaines renfermait cent milliards de bactéries et que l’appareil digestif en contenait un kilo. En multipliant, et en considérant que la majorité des bactéries se loge dans les fèces, l’estimation de la quantité dans le corps était donc de 100 000 milliards de bactéries. En 1977, l’équipe du Pr Savage a ramené ce nombre sur le nombre de cellules humaines (10 000 milliards), d’où le fameux ratio. Ce rapport d’un sur dix s’est vite répandu dans la communauté scientifique, car il est facile à retenir et rend concrète la notion de microflore intestinale. Le ratio est encore diffusé dans les cours de biologie ou activités de vulgarisation.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


Près de quarante ans après, en 2014, le microbiologiste Judah Rosner a publié une lettre dans l’ancien journal scientifique « Microbe » pour questionner l’intangible proportion d’un sur dix. Le début de son texte est d’ailleurs intéressant et révèle un paradoxe : « La science se régit par une réanalyse critique de faits. […] Mais une fois qu’un fait entre dans la littérature scientifique, au bout d’un moment, il devient difficile à effacer. » Le Pr Rosner souligne que l’estimation de 10 000 milliards de cellules est d’abord sortie dans un livre en 1970, mais que l’information n’y est pas référencée. Il avertit aussi que l’appréciation de la quantité de cellules humaines représente en fait un défi. Il conclut que, même si le ratio devait être contredit, cela ne remettrait pas en cause l’implication du microbiote dans la santé humaine.

Une question de méthode

Deux ans après la lettre mentionnée, des travaux israéliens ont démenti l’inébranlable ratio. L’équipe du Professeur Ron Milo a sélectionné l’organe dont le nombre de bactéries était représentatif des bactéries dans l’organisme. La microflore de la bouche, des poumons ou de la peau n’a pas été comptabilisée, car la quantité de bactéries y est cent fois moins riche que dans le gros intestin. Ils ont pris en compte que le côlon contient 400 grammes et non un kilo de selles fraîches. Ensuite, l’équipe s’est inspirée d’un article scientifique italien, qui évaluait le nombre de cellules humaines, non pas de manière globale, mais organe par organe puisque les tailles et masses des cellules sont très variables à travers le corps.

Le nombre de cellules humaines devient alors trois fois plus élevé, soit 30 000 milliards. La proportion de bactéries par cellule est ainsi affinée à 1,3. Bien qu’inférieur à 10, le rapport est supérieur à 1, donc les bactéries restent supérieures en nombre.

Néanmoins, chaque fois vous déféquez aux toilettes, il se rééquilibre et ce sont les cellules humaines qui deviennent supérieures en nombre !

Virus, bactéries et protozoaires peuplent notre corps

Nous parlons de bactéries, composante du microbiote intestinal la plus analysée aujourd’hui. Cependant, elle n’exprime pas toute la complexité de votre microflore. Bactéries, levures, protozoaires (animal microscopique à une seule cellule) et virus, voici le petit monde inoffensif que vous hébergez ! Notre « virobiote » a longtemps été considéré comme représentant l’écrasante majorité de l’organisme. En 2021, des études revoient cette donnée à la baisse, et rapprochent le nombre de virus dans notre corps à celui des bactéries. Par conséquent, ces effectifs sont semblables aux cellules humaines.

Mais n’oubliez pas qu’en les additionnant, bactéries et virus groupés ensemble sont majoritaires !

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.10.2024 à 16:53

Le brouillard d’eau : une nouvelle piste pour lutter contre les feux de véhicule

Antonin Robinet, doctorant en sciences des incendies, INSA Centre Val de Loire

Khaled Chetehouna, Sécurité Incendie ; Combustion ; Pyrolyse ; Milieu poreux, INSA Centre Val de Loire

Beaucoup d’additifs utilisés pour lutter contre les incendies se sont révélés être très nocifs pour l’environnement, il est donc nécessaire d’étudier de nouvelles pistes.
Texte intégral (2187 mots)

Beaucoup d’additifs utilisés pour lutter contre les incendies se sont révélés être très nocifs pour l’environnement, il est donc nécessaire d’étudier de nouvelles pistes. Aussi surprenant que cela puisse paraître, les alcools pourraient se révéler être de bons candidats.


Contrairement à ce qui est souvent montré au cinéma, un véhicule endommagé n’explose pas. En revanche, les incendies sont tristement courants. Nos voitures et autres véhicules de transport à roues sont des machines très complexes qui possèdent de nombreux points de défaillances. En 2022, les sapeurs-pompiers comptabilisaient 45 588 interventions pour des feux de véhicules.

Le compartiment moteur d’un véhicule est une zone sensible. C’est un endroit très chaud (jusqu’à plusieurs centaines de degrés Celsius), rempli de substances combustibles diverses (carburant, huiles de synthèse, graisses, flexibles, plastiques) et soumis à un apport d’air régulier grâce au ventilateur du circuit de refroidissement. Le compartiment moteur réunit donc les trois composantes du triangle du feu qui sont la carburant, l’oxygène de l’air et une source de chaleur.

Les dernières réglementations en vigueur posent des défis pour la protection incendie. Les normes permissibles d’émissions de polluants ont généralisé le déploiement de filtres à particules qui doivent se régénérer, c’est-à-dire éliminer ces particules, à une température comprise entre 550 °C et 650 °C.

Les constructeurs capitonnent les compartiments moteurs avec de l’isolant pour diminuer le bruit perçu par les usagers mais cela a pour effet secondaire de piéger l’air chaud dans le compartiment moteur et d’en augmenter la température ambiante.

Alors que des réglementations sur les moyens d’extinction automatique des incendies pour les véhicules de transport public se mettent en place, intéressons-nous aux nouveaux défis de ce domaine.

Des molécules efficaces contre les incendies mais nuisibles pour l’environnement

Au cours du XXe siècle, on découvre que les halons, des gaz à base de brome, sont des agents extincteurs très efficaces. Dès le début des années 1980, il est cependant reconnu qu’ils participent à la dégradation de la couche d’ozone et leur utilisation est progressivement éliminée depuis l’adoption du protocole de Montréal en 1987.

Les hydrofluorocarbures (HFC) ont depuis lors été utilisés comme des alternatives. Ces gaz ne dégradent pas la couche d’ozone mais leur pouvoir de réchauffement global est plusieurs milliers de fois plus important que le CO₂. L’amendement Kigali, signé en 2016, a ajouté les HFC à la liste du protocole de Montréal.

De manière générale, l’ensemble des molécules contenant des halogènes comme le fluor sont progressivement marginalisées. La réglementation européenne prévoit l’interdiction prochaine des PFAS, ces « polluants éternels ». Ils sont utilisés dans la formulation des mousses anti-incendie employées par les sapeurs-pompiers pour lutter contre certaines classes de feux. On constate donc que toute la filière de l’extinction incendie doit se réinventer, dans un contexte de changement climatique global et alors que les normes sont des plus en plus restrictives.

Pour éviter de rejouer un scénario tel que celui qui a conduit à l’adoption des HFC, il convient d’étudier soigneusement chaque solution alternative potentielle, de se plonger dans la littérature scientifique passée et présente et d’identifier les impacts de ces technologies du point de vue de la performance anti-incendie mais également sur l’environnement et la santé humaine. C’est cet écueil que nous cherchons à éviter au sein de notre unité P2CFE du laboratoire PRISME et qui fonde mon travail de thèse, en menant la recherche sur une technologie propre : le brouillard d’eau.

Petites gouttes, grands défis

Les gouttes d’un brouillard d’eau sont très petites. Cela permet d’attaquer la flamme de trois manières. Premièrement, elles permettent de refroidir la flamme et la surface du combustible. Deuxièmement, les gouttes d’eau qui se vaporisent prennent beaucoup de place et chassent l’oxygène. Enfin, la densité du brouillard lui permet d’atténuer le rayonnement thermique de l’incendie et l’empêche ainsi de se propager en réchauffant à distance du combustible environnant. Le brouillard d’eau agit alors comme un écran de protection.

Dans notre laboratoire, le brouillard est composé de gouttes d’un diamètre d’une centaine de micromètres. Nous avons pu montrer que c’est le mécanisme de refroidissement de la flamme qui est privilégié lors de l’aspersion. Ce mécanisme est accentué lorsque le brouillard est pulvérisé avec une grande vitesse sur l’incendie. Cela engendre beaucoup de turbulence, ce qui brise la structure de la flamme, comme lorsqu’on souffle sur une bougie.

L’utilisation du brouillard d’eau pour la protection incendie d’un compartiment moteur ne coule pas de source car il est nécessaire d’intégrer sur le véhicule un réservoir d’eau d’une capacité de quelques dizaines de litres.

Un autre défi est le moteur lui-même, qui est un obstacle potentiel entre la buse du brouillard et la flamme. Il faut donc privilégier une forte vitesse initiale des gouttes et un faible diamètre afin de favoriser la distribution des gouttes dans l’ensemble du compartiment.

L’interaction entre un brouillard et un feu provoque souvent une réaction explosive temporaire de ce dernier. Fourni par l'auteur

Le ventilateur de refroidissement est à même de souffler les petites gouttes du brouillard d’eau. Nous avons donc étudié l’influence de cette ventilation sur les performances du brouillard d’eau. Une faible ventilation transversale permet d’améliorer le temps d’extinction (de 14 secondes sans ventilation à 7 secondes pour une vitesse de ventilation de 3 mètres par seconde) en ramenant une partie du brouillard vers la flamme tandis qu’une forte ventilation transversale balaie systématiquement le spray et décroît fortement les capacités de refroidissement et d’extinction du brouillard (la flamme n’est pas éteinte en moins de 30 secondes). Pour contourner ce problème, il faut privilégier les cônes d’aspersion avec un angle élevé et orienter la projection dans le sens de la ventilation.

Éteindre le feu avec du vin ?

L’amélioration de la performance peut également passer par la modification de la solution pulvérisée. Afin d’innover, nous avons mené un travail exhaustif de revue de la littérature scientifique sur ce sujet.

Nous avons notamment pu mettre en évidence une nouvelle classe d’additifs pour le brouillard d’eau : les solvants. Parmi ces solvants, on trouve de nombreuses espèces hautement inflammables, comme l’éthanol.

Ajouter de l’éthanol dans l’eau pour améliorer la performance du brouillard d’eau peut sembler paradoxal. C’est pourtant l’effet que nous avons pu tester et confirmer au sein de notre laboratoire, sur une catégorie d’alcools allant du méthanol à l’heptanol.

L’augmentation du taux de refroidissement par rapport à l’eau seule est indéniable mais son origine est encore mal comprise. Les hypothèses privilégiées concernent une diminution du diamètre des gouttes par l’ajout d’alcool dans l’eau ou une accélération du processus d’évaporation des gouttes grâce à la présence d’alcool.

La vélocimétrie laser permet d’étudier de manière fine les caractéristiques du brouillard d’eau. Fourni par l'auteur

L’utilisation potentielle d’alcools comme additifs répond également à un impératif environnemental. La revue a mis en évidence un manque d’intérêt des scientifiques pour l’impact sur la santé et l’environnement des additifs pour le brouillard d’eau, alors même que la recherche sur ce brouillard d’eau ne peut pas se décorréler de l’interdiction progressive d’autres technologies d’extinction incendie. Dans cette optique, les alcools sont des additifs intéressants car ils sont biodégradables et possèdent de bonnes propriétés antigel et anticorrosion. Le brouillard d’eau additivée en est encore au stade d’études au laboratoire mais il ne fait aucun doute que le besoin réglementaire va fortement accélérer son développement dans les prochaines années.

The Conversation

Antonin Robinet a reçu des financements publics de l'Agence Innovation Défense et de la Région Centre-Val de Loire pour ses travaux de thèse

Khaled Chetehouna ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.10.2024 à 11:09

L’Agence spatiale européenne ouvre une réplique de terrain lunaire pour préparer de futures missions

Forganni Antonella, Professeure de droit, ESSCA School of Management

Benjamin Pothier, Chercheur en Anthropologie, ethnobotanique et histoire de l'art, Artiste spatial et specialiste du facteur humain dans les missions spatiales habitées, Explorateur, University of Plymouth

Les astronautes et les scaphandres tiendront-ils le coup ? Pour en être sûr, des répliques d’environnements lunaires et martiens sont construites sur Terre.
Texte intégral (2821 mots)
Une fausse mission spatiale pour « débugger » ce à quoi seront confrontés les vrais astronautes sur la Lune ou sur Mars. Benjamin Pothier, Fourni par l'auteur

Les missions spatiales coûtent trop cher pour laisser quoi que ce soit au hasard. Alors, les agences spatiales les préparent minutieusement sur Terre, notamment via des répliques d’environnements lunaires ou martiens, avec des volontaires prêts à s’isoler pendant de longs mois pour tester leur résistance psychologique et les scaphandres. Un de nos auteurs, qui a vécu l’expérience, fait le rapprochement avec les rites initiatiques traditionnels.


Le 25 septembre dernier une installation tout à fait particulière a été inaugurée par l’Agence spatiale européenne (ESA) et le Centre aérospatial allemand à Cologne : elle s’appelle LUNA et a pour objectif d’aider dans la préparation des prochaines missions lunaires, en permettant de reconstituer un environnement similaire, pour certains aspects, à celui du satellite naturel de notre planète.

Avec une surface de 700 mètres carrés, LUNA reconstitue au mieux l’ambiance lunaire, notamment grâce aux 750 tonnes de « sable » spécifiquement altéré pour simuler le régolithe (le sol lunaire), d’un « simulateur solaire » pour reproduire l’alternance de lumière et ténèbres sur la Lune, et d’autres stratagèmes pour effectuer des tâches comme les prélèvements. Autrement dit, cette installation fait partie de ce que l’on appelle les « analogues ».

Ce projet s’inscrit dans le contexte d’une accélération des efforts des acteurs majeurs du spatial pour atteindre le niveau scientifique nécessaire afin de réaliser de nouvelles missions ambitieuses, notamment retourner sur la Lune, comme prévu par les accords Artemis — la Lune représentant une étape intermédiaire pour ensuite se diriger vers Mars.

dome sous le ciel étoilé
L’habitat HI-SEAS de la NASA à Hawaï en 2019. Benjamin Pothier, Fourni par l'auteur

Au niveau européen, LUNA illustre aussi la volonté de l’ESA de soutenir le développement de l’industrie spatiale européenne, et y apporte ses valeurs de coopération et d’ouverture.

Missions spatiales simulées pour vraies avancées scientifiques

Les analogues sont des structures qui ont été développées dès les premières missions spatiales, surtout à l'occasion du programme Apollo, mais avec une recrudescence ces dernières années avec déjà au moins une vingtaine d’analogues présentés par la NASA. Ils servent à tester des équipements, des robots, des technologies et les interactions humaines dans des conditions particulières sur Terre.

test de combinaison et l’instrument dans un environnement hostile
Une astronaute analogue manipulant un LIDAR (pour mesurer les distances) lors du test de la combinaison de simulation martienne MS-1 en Islande en 2021. Benjamin Pothier, Fourni par l'auteur

Dans la plupart des cas, les participants ne sont pas de futurs astronautes, mais ils répondent à des critères précis en lien avec l’objectif de chaque analogue.

Les missions spatiales étant à haut risque, il est essentiel d’effectuer sur Terre et dans des environnements spécifiques des tests pour anticiper les possibles problèmes que l’on pourrait rencontrer. Les analogues sont donc situés dans des environnements isolés, confinés et extrêmes, qui reproduisent en partie les conditions que les astronautes retrouvent au-delà de l’atmosphère terrestre — par exemple en Antarctique.

Les tests réalisés lors des missions fictives dans les analogues peuvent concerner les équipements, tels que les combinaisons des astronautes, mais aussi des conditions de travail inhabituelles comme l’apesanteur en exploitant l’environnement sous-marin, et le « facteur humain » (c’est-à-dire comment un groupe de personnes arrive à travailler ensemble en bonne entente), quels types de qualités humaines sont nécessaires à la réussite d’une mission — par exemple la résistance au stress et au confinement prolongé, la concentration, la résilience…


À lire aussi : Comment devient-on astronaute ?


Pour cette raison, il est intéressant de solliciter des profils très différents, des artistes aux ingénieurs, des militaires aux anthropologues, comme dans le cas de Benjamin Pothier (l'un des auteurs de cet article), ayant à son actif des expériences de recherche universitaire en anthropologie, de créations artistiques dans le domaine de la photographie, de la cinématographie et du space art, et enfin des expériences d’explorations géographiques en milieux extrêmes, un « plus » pour ce type de projet.

Une personne en scaphandre d’astronaute marche dans un paysage désolé
Une astronaute analogue lors du test de la combinaison de simulation martienne MS-1, en Islande en 2021. Benjamin Pothier, Fourni par l'auteur

Du rituel initiatique à l’analogue lunaire

Ayant participé sur le terrain à plusieurs missions dans des analogues spatiaux, Benjamin peut apporter son témoignage de première main sur ce que cela signifie d'endurer la vie dans ces conditions extrêmes où il faut parfois cohabiter avec des inconnus, dans des espaces limités, pour une période qui peut être relativement longue, sans ou avec très peu de contacts avec l’extérieur.

Dans son essai, il explique les similitudes frappantes, ainsi que les différences, entre les missions au sein d’analogues spatiaux et les rituels d’initiation.

Il cite, parmi les exemples d’analogues célèbres, l’habitat HI-SEAS, installé par la NASA dans un environnement volcanique hostile à Hawaï pour simuler des missions sur Mars. La simulation incluant ici des contraintes, par exemple des réserves d’eau limitées, une nourriture préparée comme pour les missions dans l’espace, l’utilisation de reproductions des combinaisons des astronautes, etc.

Cet ensemble de contraintes « psychophysiologiques » trouvent un écho dans la manière dont sont structurés les rituels initiatiques.

En effet, de nombreux rites de passage, et notamment ceux de passage à l’âge adulte, montrent dans leur phase liminaire une propension à l’enfermement, à l’exposition à des épreuves d’endurance physique et psychologique : « privation de sommeil, jeûne, exposition au froid ou au soleil), à la douleur (coups, flagellations, piqûres d’insectes) » (selon Julien Bohomme), voire à des interdits alimentaires et des situations vexatoires qui trouvent un écho indéniable dans les processus à l’œuvre dans les missions analogues pour les besoins de la simulation de la dure réalité de la vie dans l’espace : privation de sommeil, confinement, régimes alimentaires spécifiques, accès réduit à l’eau courante pour la toilette quotidienne et relative promiscuité, épreuves d’endurance physique et exposition au froid, au danger, au stress et à la fatigue sont autant de facteurs propres aux missions analogues.


À lire aussi : Risquer sa vie pour décrocher la lune : voyage dans la psyché des astronautes


Il convient également de noter que de nombreux sites d’essais analogues tels que les grottes souterraines, les volcans et les montagnes sont aussi, oserait-on dire « depuis la nuit des temps », des lieux dédiés à des rites de passage et autres expériences mystiques ou religieuses, comme des environnements propices à l’isolement, au dépassement de soi, à la confrontation au danger, etc.

Le niveau de réalisme peut être cependant très différent d’un analogue spatial à l’autre : selon l’objectif spécifique pour lequel ils ont été créés, les analogues peuvent viser à isoler à l’intérieur d’un espace sécurisé mais très limité un groupe de personnes pour tester les réactions et le défi psychologique, ou à les éloigner dans des environnements hostiles pour permettre des tests d’équipement lors des sorties extravéhiculaires, par exemple.

L’analogue LUNA, installé à Cologne, en Allemagne, où se trouve le centre de formation des astronautes de l’ESA est pour sa part plus similaire à des bases analogues telles que le projet MARS500 de l’Institut des problèmes biomédicaux de Moscou et construit dans les années 2010 pour simuler un voyage et une mission martienne, ou encore le projet HERA de la NASA, situé dans un bâtiment du Johnson Space Center et utilisé pour simuler des missions spatiales de longue durée.

Un analogue lunaire volontairement ouvert

Parmi les différents atouts de cette installation, nous voulons souligner sa nature ouverte, car accessible aux agences spatiales, aux universitaires ainsi qu’à l’industrie spatiale du monde entier.

Cette approche s’inscrit dans la tendance toute européenne d’«accès libre», que nous retrouvons aussi dans d’autres projets de l’Union européenne comme Copernicus, le programme d’observation européen de la Terre qui permet la collecte de données rendues disponibles pour tous.

Par sa nature même, l’espace est considéré comme la prochaine frontière pour l’humanité. Les progrès technologiques accélérés de ces dernières années nous amènent à nous interroger sur les prochaines étapes de son exploration et d’un séjour plus long des êtres humains dans l’espace.

La commercialisation de l’espace, avec des acteurs du secteur privé en première ligne tels que SpaceX, pose des questions de gouvernance et réglementation. Dans ce contexte, l’Europe est porteuse d’une approche plutôt coopérative que de rivalité avec les autres acteurs de la communauté internationale, et de valeurs d’ouverture aux autres plutôt que d’exclusion, comme l’accessibilité de l’analogue LUNA nous le démontre.

The Conversation

Benjamin Pothier est membre de l'Explorers Club, il était expert au sein du comité des vols spatiaux habités de la fédération internationale d'astronautique de 2019 à 2022.

Forganni Antonella ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.10.2024 à 11:09

« Allez-vous acheter moins de bouteilles en plastique ? » Une simple question peut changer nos comportements

Bing Bai, Doctorant en Marketing à l'Université de Montpellier - Attaché d'enseignement à l'EDHEC Business School, Université de Montpellier

Laurie Balbo, Professeure Associée en Marketing _ Directrice des Programmes MSc Marketing et MSc Digital Marketing & Data Analytics, Grenoble École de Management (GEM)

Marie-Christine Lichtlé, Professeur des Universités, Université de Montpellier

Envisagez-vous d’acheter moins de bouteilles en plastique à l’avenir ? Peut-être pas, mais maintenant que la question vous a été posée, vous allez forcément y penser.
Texte intégral (1872 mots)

Envisagez-vous d’acheter moins de bouteilles d’eau en plastique à l’avenir ? Peut-être pas, mais maintenant que la question vous a été posée, vous allez forcément y penser. Cet effet psychologique pourrait être utilisé pour inciter à diminuer à la consommation de plastique.


Avec un taux de croissance de 73 % au cours de la dernière décennie, le marché de l’eau en bouteille est l’un de ceux qui connaissent la plus forte augmentation au niveau mondial. Malheureusement, cette consommation a des conséquences environnementales néfastes : augmentation des déchets plastiques, émissions de gaz à effet de serre liées à la production, le transport et la distribution des bouteilles ou encore surexploitation des ressources en eau pour produire de l’eau en bouteille. Ces impacts ne font qu’aggraver la crise écologique actuelle. Face à cette situation, la réduction de notre dépendance à l’eau embouteillée émerge comme un enjeu environnemental crucial.

En 2020, une étude de Futerra et OnePulse révèle que 80 % des sondés se disent prêts à changer leurs habitudes pour lutter contre le changement climatique et 50 % d’entre eux envisagent de limiter leur usage de plastique. Cependant, peu de recherches ont été dédiées aux stratégies de communication qui permettraient de diminuer la consommation d’eau en bouteille.

Les autoprophéties : une question pour favoriser le changement

Nos recherches explorent l’impact de ce que nous appelons les autoprophéties sur la réduction de l’achat d’eau en bouteille plastique aux États-Unis, en nous appuyant sur un échantillon de 269 personnes. Les autoprophéties désignent un phénomène psychologique selon lequel le simple fait de poser des questions aux individus sur leurs comportements futurs (par exemple : « Allez-vous recycler vos emballages ? ») peut accroître la probabilité qu’ils adoptent ces comportements. Notre étude analyse ce processus et examine comment des facteurs individuels peuvent en moduler les effets.

Des chercheurs ont montré que l’on peut expliquer les effets des autoprophéties grâce à la théorie de la dissonance cognitive. Lorsqu’une personne est invitée à prédire son comportement futur, elle peut prendre conscience d’un écart entre ses croyances normatives (ce qu’elle considère comme socialement désirable ou acceptable) et ses comportements. Cette incohérence suscite une dissonance, c’est-à-dire une contradiction, qui motive souvent les individus à modifier leurs actions pour mieux les aligner avec leurs valeurs.

Ressentir à l’avance la culpabilité d’une action contraire à nos valeurs

Dans notre étude, nous montrons le mécanisme émotionnel par lequel la demande d’autoprophétie influence les comportements pro-environnementaux, par l’intermédiaire de la culpabilité anticipée. Dans son ouvrage intitulé Une théorie de la dissonance cognitive, le psychosociologue américain Leon Festinger décrit la dissonance comme un état caractérisé par un inconfort psychologique, provoquant ainsi une aversion et une motivation à changer de comportement. Toutefois, il ne précise pas explicitement la nature de cet inconfort. Des théoriciens ultérieurs de la dissonance ont identifié la culpabilité comme une émotion provoquée par la dissonance dans certaines situations.

Nous avons exploré cette idée en nous concentrant spécifiquement sur la culpabilité, en formulant l’hypothèse que les individus anticipent ce sentiment lorsqu’ils envisagent de ne pas adopter un comportement écologique. C’est notamment le cas lorsque ce comportement est en accord avec leurs croyances normatives (c’est-à-dire les attentes sociales ou culturelles auxquelles se conformer dans certaines situations). Ainsi, cette anticipation de la culpabilité conduit à répondre à des demandes de comportements alignés sur des valeurs écologiques, pour éviter ce sentiment négatif.

Pour tester cette hypothèse, nous avons mesuré la culpabilité chez des participants exposés à une publicité contenant une question de prédiction dont le but était de réduire leurs achats d’eau en bouteille plastique. Ces participants ressentaient à l’avance davantage de culpabilité que ceux du groupe de contrôle, exposés à une publicité sans question de prédiction. Cette culpabilité anticipée réduit, à son tour, leur intention d’acheter de l’eau en bouteille.

Des effets qui varient selon les individus

Nous avons exploré deux facteurs pouvant influencer l’efficacité de la technique des autoprophéties : les croyances normatives et les motivations qui poussent les personnes à s’engager dans une action.

Des recherches antérieures ont souligné l’importance des croyances normatives. Les individus fortement attachés à leurs croyances sont plus enclins à prédire qu’ils adopteront des comportements en accord avec celles-ci et à les mettre réellement en place. Nous avons examiné comment différents types de normes influencent les intentions. En effet, certaines normes sont descriptives (ce que la majorité des gens font), d’autres sont injonctives (ce que nous pensons qu’il est attendu de nous) et enfin certaines sont personnelles (nos propres standards moraux internes).

Les résultats montrent que ces trois types de normes influencent directement le sentiment de culpabilité anticipée. Les participants pensent que la plupart des gens achètent moins de bouteilles, qu’il est socialement attendu de le faire, et que cela correspond à leurs convictions personnelles. Plus ces normes sont fortes, plus la culpabilité anticipée en cas de non-conformité augmente. Cependant, nous n’avons observé aucune interaction entre les normes et la question de prédiction. Cela suggère qu’une question de prédiction ne rend pas les croyances normatives plus saillantes au moment de la prédiction, et qu’elles ne guident donc pas les participants dans leur prise de décision.

Par ailleurs, nous avons étudié la motivation d’approche, c’est-à-dire le désir de s’engager dans des actions qui procurent des expériences positives ou des récompenses. Ainsi, nous pouvons mesurer un score dit de BAS (pour behavioral approach system, ou système d’approche comportementale) : les individus avec les plus forts scores ont plus tendance à essayer de remplir leurs objectifs, qu’ils soient concrets (par exemple atteindre ou saisir un objet), ou plus abstraits (par exemple l’altruisme ou la productivité). Ces individus fournissent des efforts accrus pour atteindre les buts qui leur procurent du plaisir, réduisant ainsi l’écart entre les objectifs qu’ils se sont fixés et ce qu’ils font en réalité.

Les plus enclins à la dissonance sont ceux qui remplissent le moins leurs objectifs

Contrairement à notre hypothèse, les individus qui ont une faible sensibilité aux récompenses et à la recherche d’expériences positives ressentent davantage de culpabilité que ceux avec un fort score. Notre interprétation est que bien que les individus qui ont un score faible à ce test soient moins motivés à agir pour atteindre leurs objectifs, ils prennent d’autant plus conscience de l’écart entre leurs comportements actuels et leurs normes personnelles lorsqu’on leur pose une question à ce propos. Cette conscience accrue de l’inadéquation entre leurs actions et leurs normes, même en l’absence d’une forte motivation, génère un sentiment de culpabilité anticipée plus fort. Par conséquent, bien qu’ils aient moins d’impulsion à agir, cette anticipation de la culpabilité accroît leur intention de réduire leur consommation de bouteilles en plastique.

À l’inverse, les individus avec un score élevé semblent intrinsèquement disposés à aligner leurs actions avec leurs normes, ce qui réduit leur dissonance cognitive. Ils semblent agir de manière proactive pour combler l’écart entre leurs comportements et leurs objectifs, diminuant ainsi la culpabilité anticipée.

Utiliser les autoprophéties dans les campagnes environnementales

Les résultats de notre étude ouvrent des perspectives pour les campagnes de sensibilisation environnementale. Les agences gouvernementales et les ONG peuvent aisément intégrer des questions de prédiction dans leurs communications pour favoriser des comportements écologiques.

Contrairement à de précédents résultats, nos résultats n’ont pas mis en évidence l’effet des croyances normatives sur l’efficacité des autoprophéties. Si un tel effet avait été observé, nous aurions constaté que plus les participants adhéraient à des croyances normatives fortes, plus leur comportement aurait été influencé par l’autoprédiction, en particulier en adaptant leurs actions pour correspondre à ces normes. Toutefois, la littérature montre que les normes personnelles influencent la façon dont les individus forment leurs intentions et adoptent des comportements écologiques. Nous recommandons donc d’avoir recours aux normes personnelles dans les campagnes utilisant des autoprophéties, par exemple en créant des messages qui mettent en avant la nécessité d’actions pro-environnementales et les conséquences de l’inaction.

Il convient également de noter que cette étude se concentre sur les intentions comportementales. Des recherches antérieures ont cependant montré les effets des autoprophéties sur les comportements réels (et non anticipés) et répétés dans le temps. Par exemple, certaines études ont documenté des améliorations dans le recyclage sur des périodes de quatre semaines après le protocole, ou encore une augmentation de la fréquentation des clubs de sport sur des périodes allant jusqu’à six mois après la prédiction. Ces différents résultats nous permettent de constater qu’une simple question, en exploitant un levier émotionnel, peut réellement inciter le public à changer ses pratiques.

The Conversation

Bing Bai a reçu des financements de la chaire Marketing responsable et bien-être de l'Université de Montpellier.

Laurie Balbo et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

24.10.2024 à 15:07

IA, cryptomonnaies et vie privée : les positions de Harris et Trump sur la régulation du numérique

Anjana Susarla, Professor of Information Systems, Michigan State University

Les big techs et leurs produits jouent un rôle démesuré dans nos sociétés et nos économies. Les enjeux de l’élection présidentielle américaine sont énormes, en termes de régulation de ces technologies.
Texte intégral (2753 mots)

En cette « année électorale » 2024, où vote la moitié de la planète, la présidentielle américaine est cruciale pour l’avenir des nouvelles technologies. En particulier, nombre des géants du numérique sont américains.

Ainsi, le ou la prochain président américain aura une influence sur les lois qui chercheront, ou pas, à équilibrer les contributions des systèmes d’intelligence artificielle, à protéger la vie privée des citoyens, ou à ajuster les situations de monopoles commerciaux. Quels sont les bilans des deux candidats sur ces sujets ?


Il n’est pas surprenant que la réglementation des technologies soit un thème important de la campagne présidentielle américaine de 2024.

Les technologies numériques — des algorithmes des médias sociaux aux systèmes d’intelligence artificielle basés sur de grands modèles de langage — ont profondément affecté la société ces dix dernières années. Ces changements se sont étalés sur les administrations Trump et Biden-Harris et ont suscité une forte demande auprès du gouvernement fédéral pour qu’il réglemente les technologies et les puissantes entreprises qui les manient.

Je suis chercheuse en systèmes d’information et en IA et j’ai examiné le bilan des deux candidats à l’élection présidentielle américaine de ce 5 novembre en matière de réglementation des technologies.

Voici les principales différences.

Des algorithmes préjudiciables

Les outils d’intelligence artificielle étant désormais très répandus, les gouvernements du monde entier doivent aborder la difficile question de la régulation de ces technologies aux multiples facettes.


À lire aussi : L’échiquier mondial de l’IA : entre régulations et soft power


Les candidats à la présidentielle américaine proposent des visions différentes de la politique américaine en matière d’intelligence artificielle. Une des différences notables tient à la reconnaissance des risques liés à l’utilisation généralisée de l’IA.

En effet, l’IA affecte tous les pans de la société de façons qui passent parfois inaperçues mais peuvent avoir des conséquences importantes. Ainsi, les biais dans les algorithmes utilisés pour les prêts et les décisions d’embauche pourraient finir par renforcer un cercle vicieux de discrimination. Par exemple, un étudiant qui ne peut pas obtenir de prêt pour l’université aurait moins de chances d’obtenir l’éducation nécessaire pour sortir de la pauvreté.


À lire aussi : Emploi, sécurité, justice : d’où viennent les « biais » des IA et peut-on les éviter ?


Lors du sommet sur la sécurité de l’IA (AI Safety Summit) qui s’est tenu au Royaume-Uni en novembre 2023, Kamala Harris a évoqué les promesses de l’IA, mais aussi les dangers que représentent les biais algorithmiques, les « deepfakes » et les arrestations abusives.

Joe Biden assis à un bureau écrit sur une feuille de papier sous le regard de Kamala Harris
Le président Joe Biden signe un décret sur les risques de l’intelligence artificielle le 30 octobre 2023, la vice-présidente Kamala Harris à ses côtés. AP Photo/Evan Vucci

Joe Biden a signé un décret sur l’IA le 30 octobre 2023, qui reconnaît que les systèmes d’IA peuvent présenter des risques inacceptables d’atteinte aux droits civils et humains et au bien-être des individus. Parallèlement, des agences fédérales telles que la Federal Trade Commission ont pris des mesures d’applications de lois existantes pour protéger les utilisateurs contre les préjudices algorithmiques.

En revanche, l’administration Trump n’a pas pris position publiquement sur la limitation de ces mêmes risques algorithmiques, et Donald Trump a déclaré qu’il voulait abroger le décret sur l’IA du président Biden. Toutefois, il a récemment évoqué lors d’interviews les dangers liés à des technologies telles que les deepfakes, ainsi que les défis posés par les systèmes d’IA en termes de sécurité, suggérant une volonté de s’attaquer aux risques croissants liés à l’IA.

Normes et standards technologiques

L’administration Trump a signé le décret sur l’initiative américaine en matière d’IA (American AI Initiative) le 11 février 2019. Ce décret promet de doubler les investissements dans la recherche sur l’IA et établit la première série d’instituts nationaux américains de recherche sur l’IA. Le décret comprend également un plan pour standardiser et établir des normes techniques pour l’IA et établit des orientations pour l’utilisation de l’IA par le gouvernement fédéral.

Le 3 décembre 2020, M. Trump a également signé un décret promouvant l’utilisation d’une IA digne de confiance au sein du gouvernement fédéral.

Donald Trump salue depuis l’escalier menant à un avion
Donald Trump quitte Washington D.C. le 11 février 2019, peu après avoir signé un décret sur l’intelligence artificielle, qui demande de créer des standards et normes techniques. Nicholas Kamm/AFP

L’administration Biden-Harris a tenté d’aller plus loin. Harris a convoqué les dirigeants de Google, de Microsoft et d’autres entreprises technologiques à la Maison-Blanche le 4 mai 2023, pour prendre une série d’engagements volontaires afin de protéger les droits des individus.

De plus, le décret de l’administration Biden contient une initiative importante visant à sonder la vulnérabilité de modèles d’IA de très grande taille et à usage général entraînés sur des quantités massives de données : le but est de déterminer les risques que des modèles comme ChatGPT d’OpenAi ou DALL-E se fassent pirater par des hackers.

Droit de la concurrence

L’application de la législation antitrust — qui restreint ou conditionne les fusions et acquisitions d’entreprises pour limiter les monopoles — est un autre moyen pour le gouvernement fédéral de réglementer l’industrie technologique.

En termes de droit de la concurrence, l’administration Trump a tenté de bloquer l’acquisition de Time Warner par AT&T — mais la fusion a finalement été autorisée par un juge fédéral après que la FTC, sous l’égide de l’administration Trump, a intenté une action en justice pour bloquer l’opération. L’administration Trump a également intenté une action antitrust contre Google en raison de sa position dominante dans le domaine de la recherche sur Internet.

Côté démocrate, le 9 juillet 2021, Joe Biden a signé un décret visant à faire appliquer les lois antitrust découlant des effets anticoncurrentiels des plates-formes Internet dominantes. Le décret vise également l’acquisition de concurrents naissants, l’agrégation de données, la concurrence déloyale sur les marchés de l’attention et la surveillance des utilisateurs. L’administration Biden-Harris a engagé des procédures antitrust contre Apple et Google. Les lignes directrices sur les fusions en 2023 de l’administration Biden-Harris ont défini des règles pour déterminer quand les fusions peuvent être considérées comme anticoncurrentielles.

Ainsi, bien que les deux administrations aient engagé des procédures antitrust, la pression de l’administration Biden semble plus forte en termes d’impact sur la réorganisation potentielle ou même l’orchestration d’un démantèlement d’entreprises dominantes telles que Google.

Cryptomonnaies

Les candidats ont des approches différentes de la réglementation des cryptomonnaies.

Vers la fin de du mandat de l’administration Trump, ce dernier a tweeté en faveur d’une réglementation des cryptomonnaies et le réseau fédéral Financial Crimes Enforcement Network a proposé une réglementation qui aurait obligé les sociétés financières à collecter l’identité de tout portefeuille de cryptomonnaie auquel un utilisateur a envoyé des fonds. Cette réglementation n’a pas été promulguée.

Depuis, Trump a modifié sa position sur les cryptomonnaies. Il a critiqué les lois américaines existantes et appelé les États-Unis à devenir une superpuissance du bitcoin. La campagne de Trump est la première campagne présidentielle à accepter des paiements en cryptomonnaies.


À lire aussi : Donald Trump, défenseur des cryptomonnaies aux États-Unis


L’administration Biden-Harris, en revanche, a défini des restrictions réglementaires sur les cryptomonnaies avec la Securities and Exchange Commission, ce qui a donné lieu à une série de mesures d’application. La Maison-Blanche a opposé son veto à la loi sur l’innovation financière et la technologie pour le XXIe siècle (Financial Innovation and Technology for the 21st Century Act) qui visait à clarifier la comptabilité des cryptomonnaies, un projet de loi favorisé par le secteur des cryptomonnaies.

Confidentialité des données et vie privée

Le décret sur l’IA de Joe Biden invite le Congrès à adopter une législation sur la protection de la vie privée, mais ne fournit pas de cadre législatif à cet effet.

L’initiative américaine sur l’IA de la Maison-Blanche de Trump ne mentionne la protection de la vie privée qu’en termes généraux, appelant les technologies d’IA à respecter « les libertés civiles, la vie privée et les valeurs américaines ». Le décret ne mentionne pas la manière dont les protections existantes de la vie privée seront mises en œuvre.

Aux États-Unis, plusieurs États ont tenté d’adopter une législation portant sur certains aspects de la confidentialité des données : à l’heure actuelle, il existe une mosaïque d’initiatives au niveau des États et une absence de législation globale sur la confidentialité des données au niveau fédéral.

La rareté de ces mesures fédérales visant à protéger les données et la vie privée indique clairement que, si les deux candidats à l’élection présidentielle américaine s’attaquent bien à certains des défis posés par l’évolution de l’IA et des technologies numériques plus généralement, il reste encore beaucoup à faire pour réguler ces secteurs dans l’intérêt du public.

Globalement, les efforts de l’administration Biden pour réguler les technologies et la concurrence afférente semblent alignés sur l’objectif de maîtriser les entreprises technologiques et de protéger les consommateurs. Il s’agit également de réimaginer les protections monopolistiques pour le XXIe siècle. Il semble que ce soit là la principale différence entre les deux administrations.

The Conversation

Anjana Susarla a reçu des financements du National Institute of Health.

23.10.2024 à 16:35

Vers une évaluation de la recherche plus ouverte et équitable : la déclaration de Barcelone

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Lonni Besançon, Assistant Professor in Data Visualization, Linköping University

La Déclaration de Barcelone marque un tournant dans la manière dont sont produites, partagées et utilisées les informations relatives au pilotage de la recherche scientifique.
Texte intégral (2197 mots)

La Déclaration de Barcelone marque un tournant dans la manière dont sont produites, partagées et utilisées les informations relatives au pilotage de la recherche scientifique. Elle a été signée par douze institutions françaises.


Des crises telles que les pandémies et les changements climatiques, ainsi que des avancées technologiques comme l’automatisation et le big data, posent des défis importants au XXIe siècle. Pour y faire face, il est essentiel que la science soit accessible à tous. Il est crucial que les citoyens aient le même accès à l’information que les chercheurs, et que les scientifiques disposent de référentiels de connaissances interconnectés et de haute qualité pour faire progresser notre compréhension du monde et démocratiser le savoir.

Pour atteindre cet objectif, il est nécessaire de revoir et de réformer les méthodes d’évaluation de la recherche. Actuellement, les critères d’évaluation favorisent souvent les publications dans des revues prestigieuses, ce qui peut limiter l’accessibilité et l’impact des recherches, surtout pour les scientifiques des pays moins favorisés. Il est nécessaire de privilégier des systèmes d’évaluation qui tiennent compte de la valeur intrinsèque de la recherche et de son impact réel sur la société, indépendamment du lieu ou de la langue de publication, afin de soutenir une science plus inclusive, équitable et ouverte.

Actuellement, les évaluations reposent souvent sur des données inaccessibles et des indicateurs opaques (facteur d’impact des journaux, nombre de citations…), ce qui nuit à la qualité et à l’équité des décisions concernant les carrières des chercheurs et le financement des projets. En adoptant des systèmes d’évaluation qui privilégient l’accès libre aux données et la reproductibilité des analyses, nous pouvons garantir que les évaluations soient basées sur des preuves complètes et transparentes. Cela permettra de corriger les erreurs et biais potentiellement présents dans les bases de données propriétaires sur abonnement (comme Web of Science ou Scopus), d’améliorer la confiance dans les résultats de la recherche et de renforcer l’efficacité globale du système de recherche scientifique.

Plus d’ouverture sur la conduite des recherches

Les presque 100 signataires de la Déclaration de Barcelone, dont douze institutions universitaires ou de recherche françaises, sur l’information ouverte des données de la recherche s’engagent à transformer la manière dont l’information sur la recherche est produite et utilisée, en prônant une nouvelle norme d’ouverture des informations sur la conduite et la communication de la recherche.

Actuellement, de nombreuses décisions stratégiques dans le domaine de la recherche reposent sur des informations non accessibles au public (nombre de citations), souvent enfermées dans des infrastructures propriétaires. Web of Science et Scopus sont deux composants essentiels de l’écosystème de recherche actuel, fournissant la base des classements universitaires mondiaux ainsi que de la recherche bibliométrique. Cependant, les deux plates-formes seraient structurellement biaisées et ne considèrent pas une partie de la recherche produite dans des pays non occidentaux, la recherche en langues autres que l’anglais et la recherche dans les domaines des arts, des sciences humaines et sociales.

Nombres d’articles par base de données (Web of Science abbrégé WOS sur la figure, Scopus et Open Alex) et recouvrement entre elles. Open Alex couvre un plus large spectre de publications avec une aprroche plus globale. Cette figure est tirée de l'article de Jack Culbert et al : Reference Coverage Analysis of OpenAlex compared to Web of Science and Scopus. Fourni par l'auteur

Les indicateurs et analyses issus de ces informations manquent de transparence et de reproductibilité, affectant les décisions relatives aux carrières des chercheurs et aux orientations des organismes de recherche, lorsqu’elles ne sont pas directement manipulées. Aussi les indicateurs se focalisent principalement sur des mesures telles que le nombre de citations des articles et le facteur d’impact des journaux (un indicateur qui estime indirectement la visibilité d’une revue scientifique. Pour une année donnée, le FI d’une revue est égal à la moyenne des nombres de citations des articles de cette revue publiés durant les deux années précédentes) dont on sait qu’elles sont souvent manipulables par plusieurs acteurs du système de recherche (de certains auteurs à certains éditeurs), tout en faisant l’impasse sur d’autres indicateurs bien plus importants pour la conduite d’une recherche éthique et reproductible.

Des indicateurs possibles sont, par exemple, la disponibilité des données produite par un essai clinique, le protocole d’étude complet, le code d’analyse des données, ou la présence d’un accord éthique (ainsi que son numéro et ses modalités d’acceptation), malheureusement souvent problématiques ou questionnables.

Les informations de recherche, ou métadonnées, englobent les détails relatifs à la mise en œuvre et à la communication de la recherche, incluant les données bibliographiques (titres, résumés, auteurs, affiliations, lieux de publication), les métadonnées sur les logiciels et instruments de recherche, les informations sur le financement et les contributeurs. Elles se trouvent dans des bases de données bibliographiques, des archives de logiciels, des entrepôts de données et des systèmes d’information de recherche. Les informations de recherche ouvertes sont des métadonnées accessibles librement et sans restrictions de réutilisation, suivant idéalement les principes FAIR (trouvable, accessible, interopérable et reproductible). Cela implique des protocoles standardisés, l’utilisation de licences Creative Commons CC0, et des infrastructures transparentes avec des normes ouvertes. Les métadonnées jouent un rôle crucial dans l’évaluation des chercheurs et des institutions et la définition des priorités des organisations. Cependant, de nombreuses données restent enfermées dans des infrastructures propriétaires, souvent biaisées géographiquement et linguistiquement. Assurer l’ouverture des informations de recherche permet à toutes les parties prenantes d’accéder pleinement aux données, enrichissant ainsi la prise de décision, l’évaluation scientifique, et la correction de la littérature scientifique lorsque c’est nécessaire.

Par exemple, un chercheur en biologie publie un article, et ses métadonnées incluent le titre, les auteurs, leur affiliation universitaire, et le résumé. Ces données sont accessibles librement dans des bases comme PubMed, facilitant la recherche pour d’autres scientifiques. Un deuxième exemple, les détails d’une subvention octroyée par une institution comme le National Institutes of Health (NIH) sont rendus publics. Cela inclut le montant, la durée, et l’objectif du financement, permettant une transparence et une collaboration accrue au sein de la communauté scientifique.

Les engagements et objectifs de la déclaration de Barcelone

Les organisations signataires (12 en France) se sont engagées à :

  • Favoriser l’ouverture des informations de recherche : les informations utilisées pour évaluer les chercheurs, les institutions ou pour prendre des décisions stratégiques seront ouvertes par défaut, sauf si cela n’est pas approprié. Cela concerne aussi les informations sur les activités et résultats de recherche.

  • Travailler avec des systèmes qui soutiennent cette ouverture : les plates-formes de publication et de gestion des informations de recherche doivent rendre ces données librement accessibles via des infrastructures ouvertes, en utilisant des standards existants quand ils sont disponibles (e.g., Crossref).

  • Soutenir les infrastructures ouvertes : les signataires aideront à maintenir et financer les systèmes qui facilitent l’ouverture des informations de recherche, tout en veillant à une bonne gouvernance et à leur durabilité.

  • Promouvoir la collaboration pour accélérer cette transition : Il est important de partager les expériences et de coordonner les actions pour passer des systèmes fermés à des systèmes ouverts.

Ainsi, le ministère de l’Enseignement supérieur et de la Recherche a mis en place en France un partenariat pluriannuel avec OpenAlex en décembre dernier. Sorbonne Université s’est désabonnée de l’outil propriétaire et sur abonnement « Web of Science » et projette de s’appuyer désormais sur des bases bibliographiques libres telles que OpenAlex pour analyser la production de sa recherche. La déclaration a également été signée par des organismes de financement (par exemple la fondation Bill & Melinda Gates ou l’Agence Nationale de la Recherche).

La Déclaration de Barcelone s’aligne avec les conclusions du Conseil de l’Union européenne de 2021, ou de l’Unesco qui recommandent l’accès libre aux données et bases de données bibliographiques utilisées pour évaluer la recherche. Elle est aussi en accord avec la loi française de 2016 pour une République numérique, qui promeut l’ouverture par défaut des données administratives. De plus, la déclaration respecte les principes de la CoARA (Coalition for Advancing Research Assessment), qui préconisent l’indépendance et la transparence des données nécessaires à l’évaluation de la recherche.

Ces engagements visent à garantir que les politiques scientifiques soient basées sur des preuves transparentes et des données accessibles et vérifiables, soutenant ainsi le mouvement mondial en faveur de la science ouverte.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

22.10.2024 à 16:59

À quoi ressemble le bord de l’univers ?

Sara Webb, Lecturer, Centre for Astrophysics and Supercomputing, Swinburne University of Technology

Nous ne saurons peut-être jamais à quoi ressemble le bord de l’univers – cela n’existe peut-être même pas. Mais voici ce que nous savons.
Texte intégral (872 mots)
Pourrons-nous, un jour, voir le bord de l'univers ? Greg Rakozy/Shutterstock

L’univers a-t-il une fin ou un bord ? Les scientifiques ne peuvent pas trancher cette fascinante question mais ont des idées, des théories et des mesures pour discuter.


Cette question sur les limites de l’univers fait partie des interrogations que les humains continueront, sans doute, à se poser jusqu’à la fin des temps.

Nous ne sommes pas sûrs, mais nous pouvons essayer d’imaginer ce que pourrait être la limite de l’univers, s’il y en a une.

Remonter le temps

Avant de commencer, nous devons remonter dans le temps. Le ciel nocturne a semblé avoir toujours eu la même apparence au cours de l’histoire de l’humanité. Il a été si stable que les humains du monde entier se sont inspirés des motifs qu’ils voyaient dans les étoiles pour s’orienter et explorer.

À nos yeux, le ciel semble infini. Avec l’invention des télescopes, il y a environ 400 ans, nous avons pu voir plus loin que nos yeux ne l’avaient jamais fait. Nous avons continué à découvrir de nouvelles choses dans le ciel et trouvé davantage d’étoiles, puis avons commencé à remarquer qu’il y avait beaucoup de nuages cosmiques à l’aspect étrange.

Les astronomes leur ont donné le nom de « nébuleuse », de mots latin signifiant « brume » ou « nuage ». Il y a moins de 100 ans, nous avons confirmé pour la première fois que ces nuages cosmiques ou nébuleuses étaient en fait des galaxies. Elles ressemblent à la Voie lactée, la galaxie dans laquelle se trouve notre planète, mais elles sont très éloignées.

Ce qui est étonnant, c’est que dans toutes les directions où nous regardons dans l’univers, nous voyons de plus en plus de galaxies. Sur cette image du télescope spatial James Webb, qui observe une partie du ciel équivalente à la zone que recouvre un grain de sable quand on le tient à bout de bras, on peut voir des milliers de galaxies.

Il est difficile d’imaginer qu’il existe une limite où tout cela s’arrête.

Le bord de l’univers

Cependant, il existe techniquement une limite à notre univers. Nous l’appelons l’univers « observable ». En effet, nous ne savons pas si notre univers est infini, c’est-à-dire s’il se poursuit à l’infini.

Malheureusement, nous ne le saurons peut-être jamais à cause d’un élément gênant : la vitesse de la lumière.

Nous ne pouvons voir que la lumière qui a eu le temps de voyager jusqu’à nous. La lumière se déplace à la vitesse exacte de 299 792 458 mètres par seconde. Même à cette vitesse, il lui faut beaucoup de temps pour traverser notre univers. Les scientifiques estiment que la taille de l’univers est d’au moins 96 milliards d’années-lumière, et probablement encore plus grande.

Que verrions-nous s’il y avait un bord ?

Si nous voyagions jusqu’à l’extrême limite de l’univers que nous pensons exister, qu’y aurait-il en réalité ?

De nombreux autres scientifiques (dont je fais partie) pensent qu’il y aurait simplement… plus d’univers !


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


Comme je l’ai dit, il existe une théorie selon laquelle notre univers n’a pas de limite et pourrait continuer indéfiniment.

Mais il existe aussi d’autres théories. Si notre univers a une limite et que vous la franchissez, vous pourriez vous retrouver dans un univers complètement différent. (Pour l’instant, il vaut mieux garder cela pour la science-fiction).

Même s’il n’y a pas de réponse directe à cette question, ce sont précisément des questions comme celles-ci qui nous aident à continuer à explorer et à découvrir l’univers, et qui nous permettent de comprendre la place que nous y occupons.

The Conversation

Sara Webb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓