URL du flux RSS
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

14.11.2024 à 11:16

Découverte inattendue d’un lien entre les jets des trous noirs et leurs galaxies hôtes

Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université

Benjamin L’Huillier, Professeur Assistant en Physique et Astronomie, Sejong University

Une toute nouvelle découverte montre que les jets émis par un trou noir sont alignés avec le reste de sa galaxie hôte, malgré des échelles très différentes.
Texte intégral (1410 mots)
Image composite en couleurs de la galaxie Centaurus A, révélant les lobes et les jets émanant du trou noir en son centre. ESO/WFI (Optical); MPIfR/ESO/APEX/A.Weiss et al. (Submillimetre); NASA/CXC/CfA/R.Kraft et al. (X-ray), CC BY

Dans notre étude parue aujourd’hui, 14 novembre 2024, dans la revue Nature Astronomy nous démontrons qu’il existe une connexion entre la région proche d’un trou noir et sa galaxie hôte car les jets émis par le trou noir sont alignés avec le reste de la galaxie.


Une nouvelle analyse des données des radiotélescopes relie les formes des galaxies aux trous noirs qu’elles abritent. Les trous noirs ne sont pas divers. Ils sont toujours d’une seule couleur (noir) et d’une seule forme (sphérique). La seule qualité qui peut varier d’un trou noir à l’autre est la masse.

En général, les trous noirs que nous avons détectés sont soit des trous noirs de masse stellaire, soit des trous noirs supermassifs. Les trous noirs de masse stellaire sont proches de la masse de notre Soleil (1030 kg) et de la taille d’une ville. Les trous noirs supermassifs sont beaucoup plus massifs (un million de fois la masse du Soleil) et ont à peu près la taille du système solaire. Cependant, aussi massifs que soient ces trous noirs, ils ont toujours une masse assez faible, souvent bien inférieure à 1 % de la masse stellaire totale de sa galaxie. Ils sont également beaucoup plus petits que leurs galaxies hôtes, de l’ordre d’un million de fois leur rayon.

Un alignement à des échelles très différentes

Dans de nouveaux résultats que nous publions aujourd’hui 14 novembre dans Nature Astronomy, nous avons découvert qu’il existe une connexion entre la région proche du trou noir et la galaxie hôte, car les jets émis par le trou noir sont alignés avec le reste de la galaxie, malgré les échelles très différentes.

Les trous noirs supermassifs sont assez rares. Notre galaxie, la Voie lactée, en possède un (nommé Sagittaire A* pour la constellation dans laquelle il se trouve) en son centre. Toutes les galaxies semblent également abriter un (ou parfois deux) trou noir supermassif en leur cœur. Les centres, ou noyaux, de ces galaxies lointaines peuvent devenir actifs, car la poussière et le gaz sont attirés vers le noyau sous l’attraction gravitationnelle du trou noir.

Ils ne tombent pas tout de suite, car ils sont animés d’une grande rotation, et forment un disque chaud de matière, appelé disque d’accrétion. Ce disque d’accrétion, à cause de son champ magnétique intense, génère à son tour un jet surchauffé de particules chargées qui sont éjectées du noyau à des vitesses très élevées, proches de la vitesse de la lumière. Lorsque cela se produit, on parle de quasar (source de rayonnement quasi-stellaire).

Un télescope de la taille de la Terre

Une façon courante d’étudier les jets de quasars est d’utiliser l’interférométrie à très longue base (VLBI). Le VLBI permet à différents radiotélescopes de fonctionner en tandem, les transformant ainsi en un seul télescope de la taille de la Terre. La résolution spatiale est alors bien supérieure à celle obtenue avec des télescopes optiques ou infrarouges.

Découverte inattendue d’un lien entre l’alignement des trous noirs et de leurs galaxies hôtes. Vidéo réalisée par Gabriel Robert.

Cet « œil massif » est bien plus efficace pour résoudre les détails fins que n’importe quel télescope individuel, ce qui permet aux astronomes de voir des objets et des structures bien plus petits que ceux visibles à l’œil nu, ou même avec un télescope optique. C’est la technique qui a été utilisée pour réaliser l’« Image du trou noir » pour le halo de lumière généré par le trou noir supermassif hébergé par la galaxie M87.

Ainsi, grâce à cette approche à haute résolution, le VLBI permet aux astronomes d’étudier ces jets jusqu’à quelques années-lumière ou moins de leur origine : le trou noir. La direction du jet à des échelles aussi petites nous informe sur l’orientation du disque d’accrétion, et donc potentiellement sur les propriétés du trou noir lui-même. Et c’est la seule façon d’obtenir de telles données à l’heure actuelle.

Qu’en est-il des galaxies hôtes elles-mêmes ? Une galaxie est un objet tridimensionnel, formé de centaines de milliards d’étoiles. Mais elle nous apparaît (observée en optique ou en infrarouge) en projection, soit comme une ellipse en 2D, soit comme une spirale.

Nous pouvons mesurer la forme de ces galaxies, en traçant le profil de la lumière des étoiles, et mesurer le grand axe et le petit axe de la forme bidimensionnelle.

Dans notre article, récemment publié dans Nature Astronomy, nous avons comparé la direction des jets de quasars avec la direction du petit axe de l’ellipse de la galaxie, et avons découvert qu’ils sont connectés. C’est surprenant, car le trou noir est si petit (le jet que nous mesurons n’a que quelques années-lumière de long), comparé à la galaxie hôte (qui peut mesurer des centaines de milliers d’années-lumière de large). Il est surprenant qu’un objet aussi petit (en comparaison) puisse affecter, ou être affecté, par l’environnement à des échelles aussi grandes. On pourrait s’attendre à voir une corrélation entre le jet et l’environnement local, mais pas avec l’ensemble de la galaxie.

Est-ce que cela a quelque chose à dire sur la façon dont les galaxies se forment ? Les galaxies spirales entrent parfois en collision avec d’autres galaxies spirales et forment des galaxies elliptiques, qui apparaissent dans le ciel comme des ellipses. Au cours du processus de fusion, le phénomène des quasars est déclenché d’une manière que nous ne comprenons pas entièrement. C’est pour cette raison que presque tous les jets qui peuvent être détectés à l’aide du VLBI sont hébergés dans des galaxies elliptiques.

L’interprétation exacte du résultat reste mystérieuse, mais elle est importante dans le contexte de la récente découverte par le télescope spatial James Webb de quasars très massifs (avec des trous noirs supermassifs), qui se sont formés beaucoup plus tôt dans l’univers que prévu. Il est clair que notre compréhension de la formation des galaxies et de l’influence des trous noirs sur ce phénomène doit être mise à jour.

The Conversation

Benjamin L’Huillier a reçu des financements du National Research Foundation of Korea.

Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.11.2024 à 17:08

De la physique à la météo, une petite histoire de la turbulence

Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris

De l’atmosphère aux océans, de la Terre aux autres planètes en passant par le Soleil, les turbulences sont partout. Comment leur compréhension a-t-elle progressé dans l’histoire, où en est-on aujourd’hui ?
Texte intégral (3417 mots)
La météo et la circulation océaniques sont dirigés par des phénomènes turbulents. Norman Kuring, Earth Observatory, NASA, CC BY-NC

La turbulence est un phénomène qui intrigue les physiciens depuis longtemps, et une des raisons pour lesquelles certains phénomènes météo sont encore aujourd’hui difficiles à prévoir.


On attribue à Werner Heinsenberg, physicien connu pour ses travaux en physique quantique et popularisé par la série Breaking Bad, la citation suivante :

« Quand je rencontrerai Dieu, je lui poserai deux questions : pourquoi la relativité ? Et pourquoi la turbulence ? Je crois vraiment qu’il aura une réponse à la première. » Werner Heisenber, vers 1946

Nombreux sont les esprits hantés par la question de la turbulence… et depuis bien longtemps. Si l’histoire de la compréhension de ce phénomène sur des bases scientifiques est le fruit d’un très long processus, ce sont surtout les observations qui ont permis d’en comprendre quelques caractéristiques.

De Vinci, qui avait l’œil de l’artiste et les talents d’observation du scientifique, s’est attelé à représenter ce que l’on nommera au XXe siècle « turbulence » (le terme fut introduit par Taylor et Von Karman). Hiroshige, en voulant représenter le tourbillon de Naruto, fait apparaître les structures complexes du phénomène.

Ce qui se dégage de ces visions d’artiste, c’est que le phénomène fait apparaître du mouvement en forme d’agitation capricieuse et de désordre esthétique représenté sous la forme d’insaisissables tourbillons de différentes tailles.

Deux visions d’artistes de la turbulence : celle de Léonard de Vinci à gauche, datant de 1510, et celle de Utagawa Hiroshige à droite, réalisée en 1855. Wikimedia
photo de nuages et de tourbillons formés par la présence d’une île
Une vision moderne de la turbulence des nuages : un vortex de Von Karman observé en 1999 au large du Chili par le satellite Landsat 7. NASA Goddard Space Flight Center, CC BY

Ces turbulences jouent un rôle crucial dans nombre de phénomènes, par exemple les phénomènes météorologiques et océanographiques (formation des nuages et dynamique des courants océaniques), impactant ainsi les climats terrestres et les événements météorologiques extrêmes. Elles sont aussi importantes en météorologie solaire, qui étudie notamment les éruptions solaires et leurs impacts sur Terre.

Les premières contributions

Au XVIIIe siècle, Daniel Bernoulli et Leonhard Euler, sont les premiers scientifiques à avoir posé les premières bases de la mécanique des fluides avec leurs équations décrivant l’écoulement idéal des fluides, c’est-à-dire sans viscosité. La viscosité représente toute la résistance interne que réalise le fluide pour lui-même. Elle a pour effet de diminuer la liberté d’écoulement du fluide et dissipe son énergie.

Un fluide non visqueux s’étale plus vite qu’un fluide visqueux (Synapticrelay/Wikipedia).

Cela parait contre-intuitif, pourtant, la viscosité va jouer un rôle important pour une description réaliste de la turbulence. Au XIXe siècle, les travaux de George Stokes et Hermann von Helmholtz ont permis d’inclure les effets de la viscosité dans les équations des fluides, ce qui a ouvert la voie à une compréhension plus subtile du phénomène avec le nombre de Reynolds.

Les travaux d’Osborne Reynolds et l’invention du « nombre de Reynolds »

C’est aussi à cette époque qu’ont eut lieu les premières tentatives pour comprendre la transition entre écoulements laminaires (réguliers) et turbulents émergèrent, notamment à travers les études sur les instabilités hydrodynamiques, un phénomène où un écoulement fluide stable devient instable et évolue vers la turbulence sous l’effet de petites perturbations ou fluctuations.

Une étape décisive dans l’histoire de la turbulence est marquée par les expériences d’Osborne Reynolds dans les années 1880 : de l’eau est injectée dans un tube horizontal avec un filet d’encre colorée. À faible vitesse, le filet d’encre reste droit, illustrant un écoulement laminaire où le fluide se déplace de manière ordonnée. À mesure que la vitesse augmente, le filet se disperse de façon erratique, montrant un écoulement turbulent marqué par des tourbillons et des irrégularités. On parle de transition laminaire/turbulent, comme le montre cette vidéo moderne. Source : Le projet Lutetium.

On comprend que le comportement des fluides est contrôlé par un nombre issu d’un rapport entre la dynamique de son « mouvement » et sa viscosité : ce rapport s’appelle le nombre de Reynolds. Cette découverte a jeté les bases pour une classification des régimes d’écoulement en fonction de ce nombre, permettant ainsi de prédire la transition vers la turbulence. On parle d’écoulement faiblement turbulent et de turbulence développé.

L’expérience de Reynolds
Illustration tirée de l’article historique de Reynolds (1883) sur la formation des écoulements turbulents. L’eau s’écoule depuis le réservoir au niveau de l’expérimentateur jusqu’au sous-sol à travers une tuyauterie transparente. La nature turbulente ou laminaire de l’écoulement peut ainsi être observée précisément. Osborne Reynolds/Wikipedia

Des ailes d’avion à la turbulence…

La portance et la trainée (ou flux d’air) autour d’une aile d’avion vue en coupe. Michael32710/Wikipedia, CC BY-SA

Au début du XXe siècle, inspiré par les problèmes d’aérodynamique notamment sur le lien entre la forme géométrique d’une aile et sa performance en vol (portance et traînée), Ludwig Prandtl, développe la théorie des « couches limites ».

Cette théorie se focalise sur une mince région de fluide située près d’une surface solide, appelée « couche limite », où la vitesse du fluide passe de zéro (à la surface solide) à celle de l’écoulement principal (loin du solide). Elle permet d’analyser séparément les effets de frottement visqueux, facilitant ainsi l’étude des portance et traînée et de la manière dont la turbulence se développe près des surfaces solides et dans les écoulements à grande vitesse.

La révolution de l’approche statistique

Dès 1895, Reynolds avait ouvert la voie à une approche statistique de la turbulence en émettant l’hypothèse que les écoulements turbulents peuvent être décrits en une somme d’un « comportement moyen » et de fluctuations.

Puis, dans les années 1920, Geoffrey Ingram Taylor et Lewis Fry Richardson proposent indépendamment de considérer les écoulements turbulents comme étant constitués de plusieurs échelles, tant spatiales que temporelles. En effet, les écoulements turbulents sont caractérisés par des tourbillons de tailles et de durées de vie variées, qui sont à l’origine de mouvements complexes à différentes échelles spatiales et temporelles.

À leur suite, Kolmogorov développe une approche basée sur des probabilités — un peu comme la physique quantique, qui s’est développée via la probabilité.

Cette approche statistique reste encore aujourd’hui un cadre essentiel pour comprendre les écoulements turbulents. En effet, elle permet de modéliser un comportement « imprévisible » en se concentrant sur des grandeurs moyennes et les fluctuations autour de ces valeurs, plutôt que de chercher à prévoir chaque mouvement individuel. Par ailleurs, les concepts clés de la théorie du chaos, tels que les attracteurs étranges et la sensibilité aux conditions initiales, sont aussi un ensemble d’outils mathématiques très utilisés pour caractériser l’apparition de phénomènes complexes.

schéma de cascade turbulente
La cascade turbulente désigne le processus par lequel l’énergie cinétique des grands tourbillons est progressivement transférée vers des tourbillons de plus en plus petits, qui finissent par la dissiper sous forme de chaleur. Waleed Mouhali, Fourni par l'auteur

D’ailleurs, Heisenberg, lors de sa résidence surveillée à Cambridge en 1945 comme prisonnier de guerre, s’attaqua au problème de la turbulence et retrouva les prédictions de Kolmogorov… alors qu’il ignorait tout de ses travaux publiés en russe.

Clairement, la description statistique de Kolmogorov a introduit une nouvelle conception des choses (en plus d’expliquer les observations expérimentales) : la turbulence ne serait qu’une manifestation d’un phénomène de cascade d’énergie, où l’énergie injectée à grande échelle est transférée aux petites échelles avant d’être dissipée par l’intermédiaire de tourbillons de différentes échelles. En d’autres termes, cette approche révèle les mécanismes physiques sous-jacents à la turbulence.

La turbulence aujourd’hui

Encore aujourd’hui, une meilleure compréhension de cette cascade d’énergie permettrait de réaliser des prédictions, offrant ainsi des applications cruciales, telles que l’amélioration de la performance des éoliennes, une meilleure gestion des catastrophes naturelles, une meilleure prévention d’évacuation pendant les saisons des ouragans et la sécurisation des trajets aériens. Ces avancées offriraient des bénéfices considérables en termes de performance et de sécurité dans divers domaines.


À lire aussi : Pourquoi il est si difficile de prévoir les orages d'été



À lire aussi : Pourquoi la science des fluides est au cœur des défis du 21e siècle


Bien que des progrès significatifs aient été réalisés, notamment grâce aux simulations numériques, le comportement turbulent reste un phénomène difficile à prédire et à contrôler en raison de sa nature chaotique et multiéchelle. Il n’y a toujours pas de théorie explicative universellement acceptée.

Pour étudier les turbulences, deux approches sont couramment utilisées aujourd’hui : d’une part l’analyse statistique d’un grand nombre de réalisations d’un même écoulement pour en extraire les comportements moyens et dominants (par exemple, certains radars d’aéroport sont utilisés pour repérer la turbulence atmosphérique), et l’examen détaillé d’une seule réalisation pour identifier les structures dynamiques fondamentales responsables des mouvements observés.

The Conversation

Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.11.2024 à 17:41

Cybersécurité : un grand concours pour résister à la menace des ordinateurs quantiques

Philippe Gaborit, Professeur en informatique, Université de Limoges

Difficile de savoir quand précisément les ordinateurs quantiques seront capables d’attaquer les communications sécurisées, mais la cryptographie commence déjà à s’adapter.
Texte intégral (1836 mots)

Les agences de sécurité du monde entier sont en train s’armer pour que les communications sécurisées sur Internet le restent quand les ordinateurs quantiques débarqueront.

Pour trouver des algorithmes résistants aux futurs ordinateurs quantiques, un organisme américain a lancé un grand concours, auquel participent de nombreuses équipes de recherche. La France est en pointe dans le domaine — explications par un des chercheurs impliqués.


La cryptographie est au cœur de la sécurité des systèmes d’information, dont Internet, et en particulier de la sécurité des paiements en ligne. Pour utiliser l’image simple d’une effraction dans un appartement : la cryptographie s’occupe d’assurer la solidité de la porte et qu’on ne puisse l’ouvrir qu’avec la clef. Pour cela, on code les informations, et seule la clef permet de les décoder.

La cryptographie repose sur des problèmes mathématiques suffisamment complexes pour que les ordinateurs actuels ne puissent pas les résoudre en un temps raisonnable, par exemple le problème de la factorisation des grands nombres. Mais quantité de ces problèmes seront vulnérables aux attaques de futurs ordinateurs quantiques, plus puissants que les ordinateurs actuels.

En 2015, devant le risque que faisait peser sur la cryptographie le développement d’un ordinateur quantique suffisamment puissant, la National Security Agency (NSA) a enjoint l’administration américaine à changer de paradigme pour passer à une cryptographie résistante aux ordinateurs quantiques, dite « cryptographie post-quantique ».

Suite à ce communiqué, l’Institut des standards américains (NIST) a lancé un concours international : pour gagner, il faut proposer de nouveaux algorithmes cryptographiques résistants aux attaques quantiques. Les gagnants deviendront les standards du domaine : ils auront vocation à être utilisés pour sécuriser toutes les communications dans le monde.

Les enjeux traversent les frontières. S’il est difficile d’évaluer précisément le moment où les systèmes cryptographiques actuels pourront être cassés par un ordinateur quantique, on est sûrs que la transition technique vers un nouveau système prendra du temps, et il faut commencer à la préparer dès maintenant.

Les futurs ordinateurs quantiques, une menace pour les systèmes cryptographiques actuels

Bien que le premier algorithme destiné à être exécuté sur un ordinateur quantique ait été décrit en 1994, le développement d’ordinateurs quantiques réels se fait très lentement. En effet, ils posent des problèmes techniques physiques particulièrement compliqués à résoudre : la puissance d’un ordinateur quantique dépend du nombre de « bits quantiques » (ou qubits) qu’il contient, mais ceux-ci sont difficiles à assembler en grand nombre… à tel point que les premiers ordinateurs quantiques ne possédaient que quelques qubits opérationnels, et ne servaient pas à grand-chose pour calculer.

Ainsi, pendant les années 2000, la puissance des ordinateurs quantique augmentait très lentement, ce qui poussait certains à penser qu’un ordinateur quantique suffisamment puissant pour poser des problèmes de sécurité ne verrait jamais le jour.


À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique


Les choses ont changé au début des années 2010 lorsque les grands groupes américains du GAFAM se sont mis à s’intéresser à l’ordinateur quantique et à financer de manière très importante de tels projets, qualifiés par certains de « projet Manhattan du XXIe siècle ».

En quelques années, on est passé de quelques bits, à quelques dizaines de qubits, à plus de 1000 qubits aujourd’hui. Si la situation a considérablement évolué en 20 ans, la réalisation d’un ordinateur quantique suffisamment efficace pour casser un système de cryptographie n’est probablement pas pour demain, tant il reste de nombreux défis physiques à résoudre… mais le sujet est aujourd’hui au premier plan au niveau international, et des start-up font de nouvelles avancées chaque jour. En France, on peut citer en particulier Pasqal et Candela.

Et même s’il reste probablement une bonne dizaine d’années avant de pouvoir éventuellement arriver à casser concrètement un système de type RSA (un système cryptographique très utilisé aujourd’hui), la « menace quantique » a déjà commencé : avec des attaques de type « harvest now and decrypt later », on peut envisager qu’un attaquant collecte des données aujourd’hui et les déchiffre lors de l’avènement de l’ordinateur quantique.

Des problèmes mathématiques difficiles, même pour un ordinateur surpuissant

Une cryptographie résistante aux attaques d’ordinateurs quantiques reposera sur une catégorie particulière de problèmes mathématiques : celle des problèmes réputés « difficiles », qui résisteront a priori aux ordinateurs quantiques.

De tels problèmes difficiles sont connus depuis des années : le premier, dit « système de McEliece » a été introduit en 1978. Mais ces problèmes difficiles ont souvent l’inconvénient d’être plus gros en taille que les systèmes classiques.

Il est important de bien comprendre qu’un ordinateur quantique ne sera pas capable de casser facilement n’importe quel type de problème difficile (en fait, on connaît très peu d’algorithmes quantiques qui cassent des problèmes efficacement), mais la catégorie des problèmes résolus beaucoup plus efficacement par un ordinateur quantique englobe tous les problèmes utilisés pour les systèmes de cryptographie à clef publique actuels.

En pratique, on utilise aujourd’hui un processus de cryptographie en deux étapes, le « chiffrement hybride » : les ordinateurs quantiques ne devraient a priori pas mettre en danger la première étape (dite « partie symétrique ») car il suffira de doubler la taille des clefs pour que même un ordinateur quantique ne puisse pas les attaquer. En revanche, la seconde étape (dite de « partage de secret ») est rendue inutilisable par le premier algorithme quantique inventé en 1994, l’algorithme de Shor. C’est pour cette seconde partie qu’il convient de trouver des systèmes alternatifs résistants aux attaques quantiques.

Un grand concours pour trouver de nouveaux algorithmes

Des concours publics internationaux ont déjà été organisés avec succès par le NIST pour définir les précédents standards de la cryptographie en 1996 et en 2008.

Le concours post-quantique a débuté en novembre 2017 et a pour objet de trouver des algorithmes de chiffrement, de partage de secret et de signature, les trois principaux types d’algorithmes de la cryptographie à clef publique moderne.

Soixante-quatre algorithmes de chiffrement ont été soumis. Au fur et à mesure d’un processus transparent qui s’est déroulé sur plusieurs années et à travers plusieurs tours qui filtraient les candidats. Il s’agit d’un processus complexe où l’on cherche des algorithmes à la fois efficaces et sécurisés et où les chercheurs sont invités à tester la robustesse des algorithmes pressentis, ainsi certains concurrents ont même été éliminés très tard dans le processus parce qu’ils ont été attaqués efficacement et donc démontrés non robustes (par exemple le système SIKE à l’été 2022).

En 2022, le NIST a choisi un premier groupe d’algorithmes pour la standardisation : KYBER pour le chiffrement ainsi que trois algorithmes (Di Lithium, Falcon et Sphincs) pour la signature.

Il espère aussi annoncer cet automne (2024) un ou deux nouveaux standards pour le chiffrement, choisis parmi les algorithmes encore en course : McEliece, HQC and BIKE.

En parallèle, le NIST a commencé un nouveau concours en juin 2023 spécialement pour les signatures post-quantiques pour augmenter la diversité des algorithmes. Le concours vient juste de commencer et a accueilli 40 candidats. Les résultats du premier tour sont arrivés en octobre 2024 et 14 candidats passent au second tour.

Durant tout le processus, la France a été très représentée dans de nombreuses soumissions sur tout type de problèmes difficiles. Le pays est très en pointe pour la cryptographie post-quantique, notamment grâce aux financements France 2030 et grâce aux efforts dans la durée de la part d’organismes de recherche nationaux comme le CNRS et l’INRIA.

Concrètement, que changent les nouveaux algorithmes post-quantiques par rapport aux systèmes de cybersécurité actuels ?

D’une manière générale, les nouveaux algorithmes post-quantiques sont plus gros en termes de taille de paramètres. Dans certains cas, la taille des données cryptographiques envoyées (petite à la base) peut être multipliée par 10 ou 20, ce qui oblige à faire évoluer aussi une partie de la chaîne globale de la sécurité et un travail d’adaptation général sur un certain de protocoles de sécurité existants qui utilisent la cryptographie en boite noire. Les chercheurs et les industriels travaillent sur le sujet depuis des années pour rendre la transition vers ces nouveaux algorithmes cryptographiques la plus efficace et sécurisée possible.

D’un point de vue plus concret, il existe des groupes de travail dans divers campus de cybersécurité à la fois au niveau national et en régions et l’ANSSI (l’agence de sécurité française qui régule l’utilisation de la sécurité et de la cryptographie en France) est en train de mettre en place des procédures de certification pour des produits utilisant la cryptographie post-quantique, avec pour but que les entreprises aient pu faire une transition d’ici 2030, c’est-à-dire… demain.


Le projet CBCRYPT a été soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Philippe Gaborit a reçu des financements de France 2030 (PEPR Quantique) et de l'ANR (projet CBCRYPT https://anr.fr/Projet-ANR-17-CE39-0007).

12.11.2024 à 17:35

Les oursins comme bioindicateurs de la pollution marine

Ouafa El Idrissi, Enseignant chercheur en biologie et écologie marine, Université de Corse Pascal-Paoli

Sonia Ternengo, Maître de conférences HDR en biologie et écologie marine, Université de Corse Pascal-Paoli

Les oursins servent de bioindicateurs pour suivre la contamination des écosystèmes côtiers par les éléments traces (longtemps appelés métaux lourds). Un exemple en Corse près d’une ancienne mine.
Texte intégral (2162 mots)

Les oursins se révèlent être de précieux bioindicateurs pour suivre la contamination des environnements marins par les éléments traces (longtemps appelés métaux lourds). Un exemple en Corse, lieu privilégié d’étude des écosystèmes côtiers, à proximité d’une mine fermée depuis plus de 50 ans.


Interfaces fragiles entre les milieux terrestres et marins, les écosystèmes côtiers sont soumis à une pression croissante due aux activités anthropiques. L’expansion des secteurs industriel, agricole et urbain entraîne l’introduction d’une quantité considérable de produits chimiques dans ces écosystèmes.

Ces substances présentent souvent des propriétés toxiques susceptibles de causer des dommages multiples à l’échelle des organismes, des populations et des écosystèmes, menaçant non seulement la biodiversité marine mais aussi les services écosystémiques qu’ils fournissent.

Les éléments traces : une menace invisible

Les éléments traces, autrefois appelés métaux lourds, font partie des contaminants les plus répandus dans l’écosystème marin. En raison de leur toxicité, leur persistance et leur capacité à s’accumuler dans les organismes marins, ces derniers sont considérés comme de sérieux polluants dans l’environnement marin.

Bien que naturellement présents dans l’environnement à faible concentration, les éléments traces peuvent rester en solution, s’adsorber sur des particules sédimentaires, précipiter au fond ou encore s’accumuler et connaître « une bioamplification » dans les chaînes alimentaires atteignant ainsi des niveaux toxiques. Une surveillance constante de leur présence et leur concentration est donc essentielle face à ces menaces.

Le cas de l’oursin violet comme bioindicateur de contamination

Afin d’évaluer les niveaux de contaminants dans l’écosystème, des organismes peuvent être utilisés comme bioindicateurs. Ces organismes ont la capacité d’accumuler des polluants dans leurs tissus permettant ainsi d’évaluer la qualité de leur environnement.

De par sa large distribution, son abondance dans les écosystèmes côtiers, sa facilité de collecte, sa longévité, sa relative sédentarité et sa bonne tolérance aux polluants, l’oursin violet Paracentrotus lividus (décrit par Lamarck en 1816) est un organisme reconnu pour son rôle de bioindicateur.

L’utilisation de biomarqueurs représente également une approche clé dans la biosurveillance marine permettant d’évaluer les liens entre l’exposition aux polluants environnementaux et leurs impacts sur les individus et les populations. Les effets des polluants dans les écosystèmes marins peuvent être mesurés à travers des paramètres biochimiques.

De nombreuses études suggèrent que l’exposition à divers éléments traces est susceptible d’entraîner des dommages irréversibles chez les organismes marins via la production de molécules oxydantes. Dans ce contexte, il est essentiel d’évaluer, au sein de ces organismes, les activités d’enzymes antioxydantes qui jouent un rôle clé dans la défense contre le stress oxydant. Les teneurs de certains marqueurs d’oxydation dans les tissus des organismes constituent également des indicateurs précieux pour évaluer l’intensité du stress oxydant.

La Corse, un site d’étude privilégié

En raison de ses côtes fortement peuplées, la mer Méditerranée est soumise à de nombreuses pressions anthropiques. Située au nord-ouest de ce bassin, la Corse constitue un site d’étude privilégié pour les écosystèmes côtiers. Ses eaux, souvent considérées comme peu affectées par des sources anthropiques majeures, permettent d’identifier plus facilement les sources de contamination.


À lire aussi : En Méditerranée, ces larves voyageuses de crabes, oursins et autres araignées


Afin d’obtenir des informations sur la qualité environnementale des eaux marines autour de l’île et d’identifier les zones de contamination locale, des prélèvements ont été réalisés. Ces travaux avaient pour objectif de suivre la dynamique spatio-temporelle de 22 éléments traces dans des oursins prélevés sur le littoral corse et d’estimer les effets de cette contamination sur le stress oxydant de P. lividus.

Des indices de pollution, calculés à partir de données issues de la littérature, ont permis de comparer les niveaux de contamination de la Corse à ceux d’autres régions méditerranéennes, comme l’Algérie, la Grèce, l’Italie et l’Espagne. Bien qu’il existe quelques cas de contamination élevée en Corse, les niveaux demeurent faibles en raison de la faible pression anthropique dans la région.

Des éléments traces présents naturellement ou liés aux activités humaines

La plupart des contaminations significatives qui ont été relevées sont attribuées à des sources localisées ou à des caractéristiques spécifiques des sites étudiés. Ainsi, de fortes teneurs en cobalt, chrome et nickel ont été mesurées dans les organes reproducteurs (les gonades) d’oursins à proximité de l’ancienne mine d’amiante à Canari en Haute-Corse. Ces niveaux résultent de déblais non traités rejetés en mer pendant la période d’activité de la mine d’amiante entre 1948 et 1965.

Malgré la fermeture de la mine depuis plus de 50 ans, le procédé utilisé pour récolter des résidus miniers le long du littoral ainsi que la composition géologique du sous-sol (constitué de roches dénommées serpentinites naturellement riches en éléments traces) contribuent encore à la dispersion de ces éléments dans l’environnement marin.

L’évaluation de la qualité des écosystèmes nécessite donc une bonne connaissance du contexte géochimique naturel afin de distinguer les éléments traces naturellement présents dans l’environnement de ceux résultant des activités anthropiques. Cet exemple illustre également comment les activités humaines, même anciennes, peuvent encore avoir un impact sur les écosystèmes.

Le calcul d’un indicateur appelé « Trace Element Pollution Index » – basé sur les concentrations en éléments traces dans les gonades et les tubes digestifs de l’oursin – a permis de déterminer un gradient de contamination avec des teneurs plus élevées au sud de l’ancienne mine d’amiante. Ce phénomène résulte de la migration des déchets miniers vers le Sud, entraînés par la houle et les courants marins dominants.

Cette observation souligne le rôle du milieu marin dans la diffusion et la distribution des contaminants dans l’environnement. Par conséquent, les éléments traces peuvent être largement diffusés à partir des sites sources rendant leur surveillance plus complexe.

Plusieurs études suggèrent que l’exposition à la contamination par les éléments traces peut induire une cascade d’événements qui stimulent des activités d’enzymes antioxydantes chez les oursins.

Dans le cadre de notre recherche, les activités spécifiques les plus élevées des enzymes antioxydantes ont été observées dans la zone sud de l’ancienne mine d’amiante, là où justement la contamination est la plus importante. Toutefois, aucune différence significative entre les sites n’a été mise en évidence. Ces données suggèrent que le système enzymatique antioxydant de P. lividus a protégé son organisme de manière efficace contre les dommages oxydants.

Intégrer aussi les caractéristiques de l’eau (température, acidité, oxygène, etc.)

La contamination en éléments traces varie selon les saisons, avec des concentrations généralement plus élevées en automne et en hiver et plus faibles en été. Cette variation s’explique par des changements physiologiques chez l’oursin. Lors de la production des cellules sexuelles ou gamètes (spermatozoïdes et ovocytes), un phénomène de dilution des concentrations en éléments traces est constaté dans les organes reproducteurs tandis qu’en dehors de cette période la concentration augmente.

Par ailleurs, certains éléments sont essentiels et leur concentration élevée durant la production des cellules sexuelles est considérée comme normale. C’est notamment le cas du zinc étroitement lié au processus de maturation des ovocytes ou cellules sexuelles féminines (l’ovogenèse) et dont les niveaux sont particulièrement élevés chez les femelles.

En conséquence, pour une utilisation optimale des oursins en tant que bioindicateurs, il est crucial de considérer divers facteurs dits « biotiques » et « abiotiques ». Les facteurs biotiques incluent la reproduction et le sexe des oursins qui influencent les concentrations d’éléments traces dans les gonades. Les facteurs abiotiques tels que la température de l’eau, le pH, la teneur en oxygène et la salinité influencent la biodisponibilité des polluants et la capacité des oursins à les accumuler.

Prendre également en compte d’autres bioindicateurs comme les moules et les algues

Par ailleurs, nos résultats ont démontré que les macroalgues et les tubes digestifs d’oursins bioaccumulent plus d’éléments traces que les gonades ce qui les rend particulièrement utiles pour identifier les contaminations locales. Le tube digestif des oursins, en particulier, pourrait être un outil plus précis pour les études écotoxicologiques car il présente généralement des concentrations d’éléments traces plus élevées et est moins affecté par les facteurs liés à la reproduction.

Ainsi, bien que les oursins soient d’excellents bioindicateurs, une approche intégrée avec d’autres organismes tels que des bivalves (les moules notamment) ou macroalgues permet d’obtenir une vision plus globale de la contamination dans les écosystèmes côtiers.

Ces recherches sont cruciales pour comprendre les pressions anthropiques exercées sur les écosystèmes marins et développer des stratégies de gestion environnementale efficaces visant à préserver la biodiversité ainsi que les services écosystémiques essentiels fournis par ces milieux.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 4 au 14 octobre 2024), et dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « océan de savoirs ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Ouafa El Idrissi a bénéficié de la bourse de la Fondation de la Mer, un financement dans le cadre du programme MISTRALS (Mediterranean Integrated STudies at Regional And Local Scales).

Sonia Ternengo a reçu un financement dans le cadre du programme MISTRALS (Mediterranean Integrated STudies at Regional And Local Scales).

12.11.2024 à 17:33

Est-ce vrai que les rhumatismes sont plus douloureux par temps humide ?

Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université

Nos aînés jouent parfois le rôle de station météo ! Grâce à leurs douleurs articulaires, ils peuvent prédire le temps qu’il fera dans la journée. Mais qu’en est-il vraiment ?
Texte intégral (946 mots)
Chez certaines personnes, l'humidité peut aggraver les douleurs liées aux articulations. Geetanjal Khanna/Unsplash, CC BY

Nos aînés jouent parfois le rôle de station météo ! Grâce à leurs douleurs articulaires, ils peuvent prédire le temps qu’il fera dans la journée. Mais qu’en est-il vraiment ?


Les rhumatismes regroupent environ 200 maladies qui touchent les composantes des articulations, soit l’os et le cartilage articulaire. Ils affectent aussi leurs parties molles, comme les ligaments sur les os ou les tendons reliant les muscles aux os. Ils sont classés selon leur origine, en rhumatismes non inflammatoires et inflammatoires. Les premiers comprennent l’arthrose et l’ostéoporose, concernant surtout les personnes âgées, les troubles musculosquelettiques ou la fibromyalgie. Les rhumatismes inflammatoires englobent notamment les formes d’arthrite, telles que la spondylarthrite ankylosante et la polyarthrite rhumatoïde, deux maladies auto-immunes. Aujourd’hui, plus de 16 millions de Français souffrent de rhumatismes.

Pluie ou humidité ?

En 2019, une équipe de l’Université de Manchester a étudié les symptômes de plus de 2500 malades pendant 15 mois. Plusieurs pathologies étaient représentées, comme l’arthrose, la polyarthrite rhumatoïde et la fibromyalgie. Les symptômes ont été recueillis via une application sur smartphone, avec des informations incluant météo, humeur ou activité physique. C’est l’une des premières expériences de science participative à utiliser une application.

Les auteurs suggèrent que ce type de dispositif peut être proposé aux patients pour prévoir leurs douleurs. Ils ont trouvé que ce sont l’humidité relative, c’est-à-dire la saturation de l’air en vapeur d’eau, et la pression atmosphérique, qui corrèlent le plus avec les douleurs articulaires.

Cette corrélation, bien que significative, reste modeste. Par exemple, la modification simultanée des deux variables météorologiques n’entraîne qu’une faible augmentation de la douleur. Trois ans après, une équipe de la même université a décidé de réanalyser les mêmes données. Ils ont déterminé qu’il y a bel et bien un lien entre climat et douleur articulaire, mais qu’il concerne environ 4 % des volontaires. Ces chercheurs expliquent que la douleur est subjective et codée par le cerveau. La réaction varie donc selon les malades, et dépend des différences interindividuelles de l’activation nerveuse.

L’articulation est un baromètre

Le lien entre douleurs articulaires et météo fait l’objet de débats houleux entre scientifiques ! En 2017, une collaboration internationale, menée par le Dr Jena, permit l’analyse des symptômes d’environ 1,5 million d’Américains de plus de 65 ans. Leur conclusion est qu’il n’y a aucune corrélation entre douleurs articulaires et jours de pluie. Quatre jours après, la réponse à cet article scientifique ne s’est pas fait attendre ! Voici comment le Dr Bamji, rhumatologue retraité, débute sa réponse : « La raison pour laquelle le Dr Jena et ses collègues n’ont pas réussi à trouver un lien entre les douleurs articulaires et la pluie est simple. Ils se sont trompés de variable – et à ma connaissance, personne n’a pris en compte la bonne. »

Comment la pluie ou l’humidité relative pourrait influer la douleur des patients… Alors que notre organisme n’a aucun moyen de détecter les fluctuations du taux d’humidité ? Le Dr Bamji précise que l’articulation est une structure permettant la proprioception ou sensibilité profonde. Il s’agit de la capacité, consciente ou inconsciente, à percevoir la position des parties du corps sans utiliser la vision. Dans les tendons sont logés des « propriocepteurs », des récepteurs sensibles à la pression induite par la contraction musculaire. Les propriocepteurs sont également sensibles aux changements de pression atmosphérique.

La pression atmosphérique suit en fait les variations de l’humidité relative. Quant aux propriocepteurs, ils transmettent leurs signaux à des nerfs sensitifs qui transitent vers le cerveau.

Les douleurs articulaires sont liées directement à la pression atmosphérique, et indirectement à l’humidité relative. Chaque patient a un ressenti dépendant de son propre système nerveux central. Le plus important est d’écouter sa douleur, par exemple en tenant un journal quotidien des symptômes !

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌞