LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

16.07.2025 à 18:01

PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »

Julie Mendret, Maître de conférences, HDR, Université de Montpellier

Mathieu Gautier, Professeur des Universités, INSA Lyon – Université de Lyon

Aujourd’hui, de nombreuses pistes sont en développement pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire.
Texte intégral (2437 mots)

Les PFAS, ces substances per- et polyfluoroalkylées, souvent surnommées les « polluants éternels », représentent un défi environnemental majeur en raison de leur persistance et de leur toxicité.

Aujourd’hui, outre mieux réguler leur utilisation, il faut de meilleures pistes pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire. Un véritable défi puisque ces molécules sont à la fois très variées et très résistantes – ce qui fait leur succès.


Des mesures d’encadrement et d’interdiction des émissions de PFAS, indispensables pour limiter leur diffusion dans l’environnement, sont d’ores et déjà en route. Selon une loi adoptée en février 2025, la France doit tendre vers l’arrêt total des rejets industriels de PFAS dans un délai de cinq ans.


À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Récemment, une enquête menée par le Monde et 29 médias partenaires a révélé que la décontamination des sols et des eaux contaminées par ces substances pourrait coûter de 95 milliards à 2 000 milliards d’euros sur une période de vingt ans.

Comme pour d’autres contaminants organiques, on distingue deux grandes familles de procédés de traitement.

Certaines technologies consistent à séparer et parfois concentrer les PFAS du milieu pollué pour permettre le rejet d’un effluent épuré, mais elles génèrent par conséquent des sous-produits à gérer qui contiennent toujours les polluants. D’autres technologies consistent à dégrader les PFAS. Ces procédés impliquent la destruction de la liaison C-F (carbone-fluor) qui est très stable avec souvent des besoins énergétiques associés élevés.

Dans cet article, nous recensons une partie des nombreux procédés qui sont actuellement testés à différentes échelles (laboratoire, pilote, voire à l’échelle réelle), depuis des matériaux innovants, qui peuvent parfois simultanément séparer et détruire les PFAS, jusqu’à l’utilisation d’organismes vivants, comme des champignons ou des microbes.


À lire aussi : Le casse-tête de la surveillance des PFAS dans les eaux


Procédés de séparation et concentration des PFAS dans l’eau

Actuellement, les techniques mises en œuvre pour éliminer les PFAS dans l’eau sont essentiellement des procédés de séparation qui visent à extraire les PFAS de l’eau sans les décomposer, nécessitant une gestion ultérieure des solides saturés en PFAS ou des concentrâts (déchets concentrés en PFAS) liquides.

La technique la plus couramment mise en œuvre est l’« adsorption », qui repose sur l’affinité entre le solide et les molécules de PFAS qui se fixent sur la surface poreuse (il est plus favorable chimiquement pour le solide et le PFAS de s'accrocher l'un à l'autre que d'être séparés). L’adsorption est une technique de séparation efficace pour de nombreux contaminants incluant les PFAS. Elle est largement utilisée dans le traitement de l’eau, notamment en raison de son coût abordable et de sa facilité d’utilisation. La sélection de l’adsorbant est déterminée par sa capacité d’adsorption vis-à-vis du polluant ciblé. De nombreux matériaux adsorbants peuvent être utilisés (charbon actif, résine échangeuse d’ions, minéraux, résidus organiques, etc.).

Parmi eux, l’adsorption sur charbon actif est très efficace pour les PFAS à chaîne longue mais peu efficace pour ceux à chaîne moyenne ou courte. Après adsorption des PFAS, le charbon actif peut être réactivé par des procédés thermiques à haute température, ce qui entraîne un coût énergétique élevé et un transfert des PFAS en phase gazeuse à gérer.

Une première unité mobile de traitement des PFAS par charbon actif a récemment été déployée à Corbas, dans le Rhône, et permet de traiter 50 mètres cube d’eau à potabiliser par heure.


À lire aussi : Les sols, face cachée de la pollution par les PFAS. Et une piste pour les décontaminer


Comme autre procédé d’adsorption, les résines échangeuses d’ions sont constituées de billes chargées positivement (anions) ou négativement (cations). Les PFAS, qui sont souvent chargés négativement en raison de leurs groupes fonctionnels carboxyliques ou sulfoniques, sont attirés et peuvent se fixer sur des résines échangeuses d’anions chargées positivement. Des différences d’efficacité ont aussi été observées selon la longueur de la chaîne des PFAS. Une fois saturées, les résines échangeuses d’ions peuvent être régénérées par des procédés chimiques, produisant des flux de déchets concentrés en PFAS qui doivent être traités. Il est à noter que les résines échangeuses d’ions n’ont pas d’agrément en France pour être utilisées sur une filière de production d’eau potable.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La technique actuellement la plus efficace pour l’élimination d’une large gamme de PFAS – à chaînes courtes et longues – dans l’eau est la filtration par des membranes de nanofiltration ou d’osmose inverse à basse pression. Malheureusement, cette technique est énergivore et génère des sous-produits de séparation, appelés « concentrâts ». Ces derniers présentent des concentrations élevées en PFAS qui induisent des difficultés de gestion (les concentrâts sont parfois rejetés dans l’environnement alors qu’ils nécessiteraient un traitement supplémentaire).

Enfin, la flottation par fractionnement de mousse exploite les propriétés des PFAS (tête hydrophile et queue hydrophobe) qui se placent à l’interface air/liquide dans des bulles de mousse et sont récupérés en surface. Des taux d’extraction de 99 % sont ainsi obtenus pour des PFAS à chaîne longue. Comme les précédentes, cette technique produit un concentrât qu’il faut éliminer ultérieurement.

Vers des technologies qui dégradent les PFAS

D’autres procédés cherchent à dégrader les contaminants présents dans les eaux afin d’offrir une solution plus durable. Il existe diverses technologies de destruction des polluants dans l’eau : les procédés d’oxydoréduction avancée, la sonolyse, la technologie du plasma, etc. Ces procédés peuvent être déployés en complément ou en remplacement de certaines technologies de concentration.

La destruction d’un polluant est influencée par son potentiel de biodégradabilité et d’oxydation/réduction. La dégradation naturelle des PFAS est très difficile en raison de la stabilité de la liaison C-F qui présente un faible potentiel de biodégradation (c’est-à-dire qu’elle n’est pas facilement détruite par des processus à l’œuvre dans la nature, par exemple conduits par des bactéries ou enzymes).

Les procédés d’oxydation avancée sont des techniques qui utilisent des radicaux libres très réactifs et potentiellement efficaces pour briser les liaisons C–F. Elles incluent entre autres l’ozonation, les UV/peroxyde d’hydrogène ou encore les procédés électrochimiques.

Le traitement électrochimique des PFAS constitue une méthode innovante et efficace pour la dégradation de ces composés hautement persistants. Ce procédé repose sur l’application d’un courant électrique à travers des électrodes spécifiques, générant des radicaux oxydants puissants capables de rompre les liaisons carbone-fluor, parmi les plus stables en chimie organique.

Pour tous ces procédés d’oxydation avancée, un point de surveillance est indispensable : il faut éviter la production de PFAS à chaînes plus courtes que le produit initialement traité.

Récemment, une entreprise issue de l’École polytechnique fédérale de Zurich (Suisse) a développé une technologie innovante capable de détruire plus de 99 % des PFAS présents dans les eaux industrielles par catalyse piézoélectrique. Les PFAS sont d’abord séparés et concentrés par fractionnement de la mousse. Ensuite, la mousse concentrée est traitée dans deux modules de réacteurs où la technologie de catalyse piézoélectrique décompose et minéralise tous les PFAS à chaîne courte, moyenne et longue.

La dégradation sonochimique des PFAS est également une piste en cours d’étude. Lorsque des ondes ultrasonores à haute fréquence sont appliquées à un liquide, elles créent des bulles dites « de cavitation », à l’intérieur desquelles des réactions chimiques ont lieu. Ces bulles finissent par imploser, ce qui génère des températures et des pressions extrêmement élevées (plusieurs milliers de degrés et plusieurs centaines de bars), qui créent des espèces chimiques réactives. Le phénomène de cavitation est ainsi capable de rompre les liaisons carbone-fluor, permettant d’obtenir finalement des composants moins nocifs et plus facilement dégradables. Très prometteuse en laboratoire, elle reste difficile à appliquer à grande échelle, du fait de son coût énergétique et de sa complexité.

Ainsi, malgré ces récents progrès, plusieurs défis subsistent pour la commercialisation de ces technologies en raison notamment de leur coût élevé, de la génération de potentiels sous-produits toxiques qui nécessitent une gestion supplémentaire ou encore de la nécessité de la détermination des conditions opérationnelles optimales pour une application à grande échelle.

Quelles perspectives pour demain ?

Face aux limites des solutions actuelles, de nouvelles voies émergent.

Une première consiste à développer des traitements hybrides, c’est-à-dire combiner plusieurs technologies. Des chercheurs de l’Université de l’Illinois (États-Unis) ont par exemple développé un système innovant capable de capturer, concentrer et détruire des mélanges de PFAS, y compris les PFAS à chaîne ultra-courte, en un seul procédé. En couplant électrochimie et filtration membranaire, il est ainsi possible d’associer les performances des deux procédés en s’affranchissant du problème de la gestion des concentrâts.

Des matériaux innovants pour l’adsorption de PFAS sont également en cours d’étude. Des chercheurs travaillent sur l’impression 3D par stéréolithographie intégrée au processus de fabrication de matériaux adsorbants. Une résine liquide contenant des polymères et des macrocycles photosensibles est solidifiée couche par couche à l’aide d’une lumière UV pour former l’objet souhaité et optimiser les propriétés du matériau afin d’améliorer ses performances en termes d’adsorption. Ces matériaux adsorbants peuvent être couplés à de l’électroxydation.

Enfin, des recherches sont en cours sur le volet bioremédiation pour mobiliser des micro-organismes, notamment les bactéries et les champignons, capables de dégrader certains PFAS). Le principe consiste à utiliser les PFAS comme source de carbone pour permettre de défluorer ces composés, mais les temps de dégradation peuvent être longs. Ainsi ce type d’approche biologique, prometteuse, pourrait être couplée à d’autres techniques capables de rendre les molécules plus « accessibles » aux micro-organismes afin d’accélérer l’élimination des PFAS. Par exemple, une technologie développée par des chercheurs au Texas utilise un matériau à base de plantes qui adsorbe les PFAS, combiné à des champignons qui dégradent ces substances.

Néanmoins, malgré ces progrès techniques, il reste indispensable de mettre en place des réglementations et des mesures en amont de la pollution par les PFAS, pour limiter les dommages sur les écosystèmes et sur la santé humaine.

The Conversation

Julie Mendret a reçu des financements de l'Institut Universitaire de France (IUF).

Mathieu Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.07.2025 à 17:52

Disneyland Paris, un parc d’attractions… inspiré de merveilles géologiques réelles

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Entre montagnes rouges, grottes mystérieuses et cascades tropicales, Disneyland Paris regorge de paysages spectaculaires. Combien de visiteurs réalisent que ces décors s’inspirent directement de la géologie réelle ?
Texte intégral (3628 mots)
Monument Valley Navajo Tribal Parks, site naturel à cheval sur l’Arizona et l’Utah, aux États-Unis. Domenico Convertini/Flickr, CC BY-SA

La prochaine fois que vous visiterez Disneyland Paris, regardez bien les roches autour de vous. Elles vous racontent une histoire, pas celle des contes de fées, mais celle de la Terre. Une aventure tout aussi fantastique… et bien réelle.


Derrière les artifices d’un parc à thème se cache une fascinante reconstitution de la planète Terre, version Disney. À quel point est-elle fidèle à la réalité ?

Nous vous proposons de nous pencher sur un aspect inattendu de Disneyland : sa dimension géologique. Non pas celle du sous-sol sur lequel le parc est construit, mais celle des paysages qu’il met en scène. Car les Imagineers (les concepteurs des attractions et décors du parc) se sont souvent inspirés de formations naturelles bien réelles pour créer les décors enchanteurs et parfois inquiétants que le public admire chaque jour.

Des montagnes à l’est de Paris

Prenez Big Thunder Mountain, sans doute la montagne la plus iconique du parc, dans la zone inspirée du Far West américain.

train sur montagne rouge
Une montagne russe inspirée du Grand Ouest américain. Eleanor Brooke/Unsplash, CC BY

Ses roches de couleur rouge due à la présence d’oxydes de fer et ses falaises abruptes sont directement inspirées des sites naturels emblématiques de l’Ouest américain tels que Monument Valley Tribal Park, Arches National Park ou encore le Goblin Valley State Park, entre l’Arizona et l’Utah.

Ces sites emblématiques sont constitués de grès vieux de 160 millions à 180 millions d’années, les grès Navajo et Entrada (ou Navajo and Entrada Sandstones). Ces grès de très fortes porosités sont utilisés depuis plusieurs décennies comme des « analogues de roches-réservoirs » par les géologues, c’est-à-dire comme l’équivalent en surface des réservoirs profonds afin de comprendre les écoulements de fluides.

Par ailleurs, outre leur aspect visuellement spectaculaire, c’est dans les Navajo Sandstones que les géologues ont pu élaborer les modèles actuels de croissance des failles. La présence de ces failles et fractures tectoniques est particulièrement bien représentée sur les décors de Big Thunder Mountain. En particulier, les créateurs ont respecté la relation entre l’épaisseur des couches géologiques et l’espacement des fractures, qui correspond à un modèle mathématique précis et respecté.

Cette reproduction n’a rien d’un hasard. Dès les années 1950, Walt Disney en personne a voulu intégrer des paysages naturels dans ses parcs pour leur pouvoir évocateur.

Ces montagnes sont devenues des icônes et se retrouvent dans les films Disney comme Indiana Jones et la dernière croisade (1989) au début duquel le jeune Indy mène son premier combat pour soustraire des reliques aux pilleurs de tombes dans l’Arches National Park. Pour les Imagineers, il s’agissait de recréer un Far West rêvé, mais en s’appuyant sur des repères géologiques bien identifiables, une manière d’ancrer la fiction dans un monde tangible.

arche de grès rouge
La Delicate Arch, dans le parc national d’Arches, dans l’Utah aux États-Unis. Élodie Pourret-Saillet., Fourni par l'auteur

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La grotte du dragon : géologie souterraine et imaginaire

Un autre exemple frappant : la tanière du dragon, nichée sous le château de la Belle au bois dormant. Cette attraction unique à Disneyland Paris met en scène un dragon animatronique de 27 mètres de long, tapi dans une grotte sombre et humide.

Le décor rappelle les endokarsts, ces réseaux de grottes calcaires que l’on trouve notamment dans le sud de la France (comme l’Aven Armand) (Lozère), en Slovénie ou en Chine.

Les stalactites, l’eau ruisselante, les murs rugueux sont autant d’éléments qui évoquent des processus bien réels : dissolution du calcaire par l’eau acide, formation de concrétions, sédimentation…

stalactites et coussins calcaires de l’Aven Armand
Les formations calcaires de l’Aven Armand (Lozère), dans les Cévennes. Petr1888, Wikipédia, CC BY-SA

Seule entorse à cette reconstitution souterraine : le passage brutal d’un calcaire à un substrat granitique, sur lequel repose le château du parc. Or, ces roches ont des origines très différentes : les calcaires sont sédimentaires, les granites magmatiques, formés en profondeur par refroidissement du magma. Leur voisinage est rare, sauf dans certains contextes tectoniques, comme le long de grandes failles ou en zones de métamorphisme de contact, où le granite chauffe et transforme les sédiments voisins. Un exemple existe dans le Massif central, entre granites du Limousin et calcaires du Quercy. Cette configuration, bien que possible, reste peu fréquente et repose sur des structures complexes, difficilement représentables dans un parc. Elle simplifie donc à l’extrême une histoire géologique de centaines de millions d’années.

Mais, évidemment, rien ici n’est naturel. Tout est reconstitué en béton, fibre de verre ou résine. L’effet est cependant saisissant. Les visiteurs plongent dans un univers souterrain crédible, parce qu’il s’appuie sur une géologie fantasmée mais en grande partie réaliste.

La jungle cache des coulées volcaniques figées

Dans la partie du parc appelée Adventure Isle, le visiteur traverse une jungle luxuriante peuplée de galeries souterraines, de ponts suspendus et de cascades. Mais derrière cette végétation exotique se dissimulent aussi des formes géologiques typiques des régions tropicales ou volcaniques : blocs rocheux arrondis, chaos granitiques, pitons rocheux et même orgues basaltiques.

On peut notamment repérer sur le piton rocheux nommé Spyglass Hill, près de la cabane des Robinson et du pont suspendu, des formations en colonnes verticales. Celles-ci évoquent des orgues basaltiques, comme on peut en observer sur la Chaussée des géants en Irlande du Nord ou à Usson (Puy-de-Dôme) en Auvergne.

colonnes de granite de section hexagonale
Les orgues basaltiques d’Usson (Puy-de-Dôme), en Auvergne. Accrochoc, Wikipédia, CC BY-SA

Ces structures géométriques résultent du refroidissement lent de coulées de lave basaltique, qui se contractent en formant des prismes hexagonaux. Bien que les versions Disney soient artificielles, elles s’inspirent clairement de ces phénomènes naturels et ajoutent une touche volcanique au décor tropical.

entrée en grès derrière des racines de faux fromagers
Entrée du temple khmer Ta Phrom, érigé sur le site d’Angkor au Cambodge à la fin du XIIᵉ siècle. Diego Delso, Wikipédia, CC BY-SA

Le décor du temple de l’attraction Indiana Jones et le Temple du Péril, quant à lui, rappelle celui du site d’Angkor au Cambodge, qui est bâti sur des grès et des latérites (formations d’altération se formant sous des climats chauds et humides). Les pierres couvertes de mousse, les failles et les racines qui s’y infiltrent, simulent une interaction entre la roche et le vivant. Ce type de paysage évoque des processus bien réels : altération chimique, érosion en milieu tropical humide et fracturation des roches.

En mêlant ainsi géologie volcanique et paysages tropicaux, cette partie du parc devient une synthèse d’environnements géologiques variés. Cependant, la reconstitution d’un environnement naturel si varié sur une surface limitée impose ici ses limites. En effet, chaque type de roche présenté ici correspond à un environnement géodynamique précis, et l’ensemble peut difficilement cohabiter dans la nature.

Quand Blanche-Neige creusait déjà pour des gemmes : les minéraux à Disneyland

Bien avant les montagnes du Far West ou les grottes de dragons, la première évocation de la géologie dans l’univers Disney remonte à Blanche-Neige, en 1937. Souvenez-vous : les sept nains travaillent dans une mine de gemmes où s’entassent diamants, rubis et autres pierres précieuses étincelantes. Cette scène, réinterprétée dans les boutiques et attractions du parc, a contribué à forger une vision enchantée mais persistante des minéraux dans l’imaginaire collectif.

À Disneyland Paris, on retrouve cette symbolique dans les vitrines, sous le château de la Belle au bois dormant ou dans certaines attractions comme Blanche-Neige et les sept nains, et la grotte d’Aladdin, où les cristaux colorés scintillent dans les galeries minières.

Ces minéraux, bien que fantaisistes, sont souvent inspirés de véritables spécimens comme les diamants, quartz, améthystes ou topazes. Dans la réalité, ces cristaux résultent de processus géologiques lents, liés à la pression, la température et la composition chimique du sous-sol et ces minéraux ne sont pas présents dans les mêmes zones géographiques simultanément.

cristaux roses et blancs, vus de près
Cristaux d’améthyste. Sander van der Wel, Wikipédia, CC BY-SA

Une science cachée mais omniprésente

À première vue, Disneyland Paris semble à des années-lumière des sciences de la Terre. Et pourtant, chaque décor rocheux, chaque paysage artificiel repose sur des connaissances géologiques précises : types de roches, formes d’érosion, couleurs, textures…

Cette approche est d’ailleurs comparable à celle utilisée dans le cinéma, notamment dans les films Disney-Pixar comme Cars (2006), où les décors sont validés par des géologues et géographes.

Pourquoi ne pas profiter d’une visite au parc pour sensibiliser les visiteurs à ces aspects ? Comme cela est déjà le cas pour les arbres remarquables du parc, une description pédagogique des lieux d’intérêt géologique pourrait être proposée. Une sorte de « géologie de l’imaginaire », qui permettrait de relier science et pop culture. Après tout, si un enfant peut reconnaître une stalactite dans une grotte à Disneyland, il pourra peut-être la reconnaître aussi dans la nature.

The Conversation

Les visites géologiques des auteurs au parc DisneyLand Paris n'ont fait l'objet d'aucun financement de la part du parc DisneyLand Paris, ni d'avantages de quelque nature.

PDF

14.07.2025 à 18:38

Notre Soleil deviendra un jour une naine blanche, mais qu’est-ce que c’est exactement ?

Romain Codur, Professeur de Physique, Dynamique des fluides et Modélisation, École de Biologie Industrielle (EBI)

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?
Texte intégral (1761 mots)
Vue d'artiste d'une naine blanche, accrétant des débris rocheux laissés par le système planétaire. NASA, ESA, and G. Bacon (STScI), CC BY

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?


Les naines blanches sont des étoiles de très faible luminosité (environ mille fois moins que le Soleil). Elles sont extrêmement chaudes, les plus jeunes pouvant dépasser 100 000 °C (à comparer aux 5 000 °C à la surface du Soleil). Cependant, elles se refroidissent au cours de leur vie, ce qui fait qu’aujourd’hui la plupart des naines blanches connues ont une température comprise entre 4000 °C et 8000 °C. Cette gamme de températures correspond à une couleur apparente blanche, d’où le nom de « naine blanche ». En effet, en physique, on associe chaque couleur à une température (liée à la longueur d’onde et la fréquence de la lumière correspondante) : le blanc est le plus chaud, le bleu est plus chaud que le rouge, et le noir est le plus froid.

On pourrait penser qu’un astre plus chaud sera plus lumineux, mais ce n’est pas le cas pour les naines blanches. Pour les étoiles « standards » (comme le Soleil), les réactions nucléaires au sein de l’étoile sont responsables de leur émission de lumière. En revanche, il n’y a pas de réactions nucléaires dans une naine blanche, ce qui fait que la seule lumière qu’elle émet provient de son énergie thermique (comme un fil à incandescence dans une ampoule).

Les naines blanches sont d’une masse comparable à la masse du Soleil (2x1030 kg), mais d’un rayon comparable à celui de la Terre (6 400 km, contre 700 000 km pour le Soleil). En conséquence, les naines blanches sont des astres extrêmement denses (les plus denses après les trous noirs et les étoiles à neutrons) : la masse volumique de la matière y est de l’ordre de la tonne par cm3 (à comparer à quelques grammes par cm3 pour des matériaux « standards » sur Terre).

À de telles densités, la matière se comporte d’une manière très différente de ce dont on a l’habitude, et des effets quantiques apparaissent à l’échelle macroscopique : on parle de « matière dégénérée ». La densité y est tellement élevée que les noyaux atomiques sont plus proches des autres noyaux que la distance entre le noyau et les électrons. Par conséquent, les électrons de deux atomes proches devraient se retrouver au même endroit (sur la même « orbitale atomique »). Ceci est interdit par un principe de mécanique quantique appelé le principe d’exclusion de Pauli : de fait, les électrons se repoussent pour ne pas être sur la même orbitale, ce qui engendre une pression vers l’extérieur appelée « pression de dégénérescence ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Naine blanche : l’avenir du Soleil

Dans environ 5 milliards d’années, lorsque le Soleil commencera à manquer d’hydrogène pour ses réactions de fusion nucléaire, il grandira jusqu’à englober au moins Mercure, Vénus, et peut-être même la Terre, formant ainsi une géante rouge. Ensuite, il subira différentes phases de contraction et d’expansion, associées à différentes réactions de fusion de l’hydrogène et de l’hélium le composant. Cependant, il ne sera pas assez chaud pour effectuer les réactions de fusion d’atomes plus lourds (notamment celle du carbone). Par conséquent, la pression (vers l’extérieur du Soleil) ne sera plus suffisante pour compenser la gravité (vers l’intérieur), ce qui conduira à l’effondrement gravitationnel du cœur du Soleil pour former une naine blanche. Les couches périphériques du Soleil formeront quant à elles une nébuleuse planétaire, un nuage de gaz chaud et dense expulsé vers le milieu interplanétaire. Ce gaz formera peut-être plus tard une autre étoile et d’autres planètes…

Vue d’artiste montrant une comète tombant vers une naine blanche
Vue d’artiste montrant une comète tombant vers une naine blanche. NASA, ESA, and Z. Levy (STScI), CC BY

Il existe une masse maximale pour une naine blanche, qui s’appelle masse de Chandrasekhar, et qui vaut environ 1,4 fois la masse du Soleil. Au-delà, les forces de pression internes n’arrivent plus à compenser la gravité. Lorsqu’une naine blanche dépasse la masse de Chandrasekhar en accrétant de la matière, elle s’effondre sur elle-même, donnant alors naissance à une étoile à neutrons ou une supernova. Dans une étoile à neutrons, l’état de la matière est aussi dégénéré, encore plus dense que la naine blanche. Les protons et électrons de la matière composant la naine blanche ont fusionné pour former des neutrons. Une supernova est un objet différent : il s’agit de l’explosion d’une étoile. Ce phénomène est très bref (d’une durée inférieure à la seconde), mais reste visible pendant quelques mois. Les supernovæ sont extrêmement lumineuses, et certaines ont même pu être observées en plein jour.

Si elle ne dépasse pas la masse de Chandrasekhar, la durée de vie théorique d’une naine blanche est si élevée qu’on estime qu’aucune naine blanche dans l’univers n’est pour l’instant en fin de vie, compte tenu de l’âge de l’univers (environ 13,6 milliards d’années). En effet, les naines blanches émettent de la lumière à cause de leur température. Cette lumière est de l’énergie dissipée par la naine blanche, ce qui fait qu’elle perd en énergie au cours de sa vie, et donc elle se refroidit. Plusieurs hypothèses ont été avancées quant au devenir ultime d’une naine blanche, comme les naines noires, ayant une température si basse qu’elles n’émettent plus de lumière.

Comment observer des naines blanches ?

La première naine blanche a été détectée par Herschel (découvreur d’Uranus) en 1783, dans le système stellaire triple 40 Eridani. Ce système est composé de trois étoiles, mais seule la plus lumineuse, 40 Eridani A, a pu être observée directement à l’époque ; l’existence des deux autres, 40 Eridani B (la naine blanche en question) et C, a été déterminée par des calculs de mécanique céleste.

Du fait de leur faible luminosité et de leur petite taille, les naines blanches sont longtemps restées indétectables par nos télescopes. Ce n’est que depuis les progrès technologiques du début du XXe siècle qu’elles sont observables directement. En effet, 40 Eridani B a été identifiée en tant que naine blanche en 1914.

Aujourd’hui, le catalogue Gaia de l’ESA (Agence Spatiale Européenne) compte environ 100 000 naines blanches dans notre galaxie, sur plus d’un milliard de sources lumineuses identifiées.


L’auteur aimerait remercier particulièrement Dr Stéphane Marchandon (École de biologie industrielle) pour des discussions intéressantes et des corrections apportées au présent article.


The Conversation

Romain Codur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.07.2025 à 09:57

Réchauffements climatiques il y a 56 millions d’années : la biodiversité du passé peut-elle nous aider à anticiper l’avenir ?

Rodolphe Tabuce, Chargé de recherche CNRS, Université de Montpellier

Face aux grands bouleversements climatiques actuels, une question se pose : comment les animaux, et en particulier les mammifères, vont-ils répondre aux futures hausses conséquentes de température ?
Texte intégral (2908 mots)
Paysage typique du massif des Corbières montrant le village d’Albas et ses couches géologiques du Paléocène/Éocène. Rodolphe Tabuce, Fourni par l'auteur

Face aux grands bouleversements climatiques actuels, une question essentielle se pose : comment les animaux, et en particulier les mammifères, vont-ils répondre aux futures hausses conséquentes de température ?


Pour donner des pistes de réflexion tout en se basant sur des faits observés, on peut se tourner vers le passé, il y a environ 56 millions d’années. À cette époque, deux courts mais très intenses réchauffements climatiques sont concomitants de changements fauniques sans précédent en Europe. Nous venons de publier nos travaux dans la revue PNAS, qui permettent de mieux comprendre cette étape charnière de l’histoire des mammifères.

Un réchauffement propice aux mammifères

Le premier pic de chaleur dont nous avons étudié et synthétisé les conséquences est nommé Maximum Thermique du Paléocène-Eocène (ou PETM). Il s’agit d’un événement hyperthermique, daté à 56 millions d’années, qui a vu les températures continentales augmenter de 5 à 8 °C en moins de 20 000 ans. Évidemment, cette durée est sans commune mesure avec la rapide augmentation des températures depuis deux siècles due aux activités humaines, mais le PETM est considéré par les paléoclimatologues comme le meilleur analogue géologique au réchauffement actuel par sa rapidité à l’échelle des temps géologiques, son amplitude et sa cause : un largage massif de méthane et de CO2 dans l’atmosphère, très probablement issu d’épanchements gigantesques de basaltes sur l’ensemble de l’actuel Atlantique Nord (Groenland, Islande, Norvège, Nord du Royaume-Uni et Danemark).

Ces puissants gaz à effet de serre, et l’augmentation des températures ainsi engendrée, ont causé des bouleversements fauniques et floristiques dans tous les écosystèmes marins et terrestres. En Europe, en Asie et en Amérique du Nord, le PETM a coïncidé avec l’apparition soudaine des premiers primates (représentés aujourd’hui par les singes, les lémuriens et les tarsiers), artiodactyles (représentés aujourd’hui par les ruminants, les chameaux, les cochons, les hippopotames et les cétacés) et périssodactyles (représentés aujourd’hui par les chevaux, les zèbres, les tapirs et les rhinocéros). Cet événement a donc joué un rôle majeur, en partie à l’origine de la biodiversité que nous connaissons aujourd’hui.

Mais tout juste avant ce grand bouleversement, un autre épisode hyperthermique plus court et moins intense, nommé Pre-Onset Event du PETM (ou POE), s’est produit environ 100 000 ans plus tôt, vers 56,1 millions d’années. On estime aujourd’hui que le POE a induit une augmentation des températures de 2 °C. Certains scientifiques pensent que ce premier « coup de chaud » aurait pu déclencher le PETM par effet cascade. Pour en revenir à l’évolution des paléo-biodiversités, autant l’impact du PETM sur les faunes de mammifères est relativement bien compris, autant l’impact du POE restait inconnu avant nos travaux.

Une recherche de terrain minutieuse en Occitanie

Pour répondre à cette problématique nous avons focalisé nos recherches dans le sud de la France, dans le Massif des Corbières (département de l’Aude, région Occitanie), où les couches géologiques de la transition entre le Paléocène et l’Éocène sont nombreuses et très épaisses, laissant l’espoir d’identifier le PETM, le POE et des gisements paléontologiques à mammifères datés d’avant et après les deux pics de chaleur. Autrement dit, nous avions comme objectif de décrire très clairement et objectivement les effets directs de ces réchauffements sur les faunes de mammifères.

Durant plusieurs années, nous avons donc engagé des études pluridisciplinaires, en combinant les expertises de paléontologues, géochimistes, climatologues et sédimentologues. De plus, via des actions de sciences participatives, nous avons impliqué dans nos recherches de terrain (prospections et fouilles paléontologiques) des amateurs en paléontologie, des naturalistes et autres passionnés du Massif des Corbières. Nos travaux ont abouti à la découverte d’une faune de mammifères sur le territoire de la commune d’Albas. Cette faune est parfaitement datée dans le très court intervalle de temps entre le POE et le PETM. Dater un site paléontologique vieux de plus de 56 millions d’années avec une précision de quelques milliers d’années est tout simplement remarquable. Les scénarios qui en découlent, en particulier ceux relatifs à l’histoire des mammifères (date d’apparition des espèces et leurs dispersions géographiques) sont ainsi très précis.

Étude des couches géologiques et échantillonnage de roches pour la datation du gisement d’Albas
Étude des couches géologiques et échantillonnage de roches pour la datation du gisement d’Albas. Rodolphe Tabuce, Fourni par l'auteur

La datation du gisement fossilifère découvert à Albas a été réalisée par analyse isotopique du carbone organique contenu dans les couches géologiques. Les roches sédimentaires (calcaires, marnes et grès) que l’on rencontre dans la nature actuelle proviennent de l’accumulation de sédiments (sables, limons, graviers, argiles) déposés en couches superposées, appelées strates. À Albas, les sédiments rencontrés sont surtout des marnes, entrecoupées de petits bancs de calcaires et de grès. Il faut imaginer ce « mille-feuille géologique » comme les pages d’un livre : elles nous racontent une histoire inscrite dans le temps. Ce temps peut être calculé de différentes manières. Alors que l’archéologue utilisera le carbone 14, le géologue, le paléoclimatologue et le paléontologue préféreront utiliser, par exemple, le rapport entre les isotopes stables du carbone (13C/12C). Cette méthode à un double intérêt : elle renseigne sur la présence d’évènements hyperthermiques lors du dépôt originel des sédiments (plus le ratio entre les isotopes 13C/12C est négatif et plus les températures inférées sont chaudes) et elle permet de donner un âge précis aux strates, puisque les événements hyperthermiques sont des épisodes brefs et bien datés. L’augmentation soudaine de 12C dans l’atmosphère durant les événements hyperthermiques est expliquée par la libération rapide d’anciens réservoirs de carbone organique, naturellement enrichis en 12C, notamment par le résultat de la photosynthèse passée des végétaux. En effet, aujourd’hui comme dans le passé, les plantes utilisent préférentiellement le 12C : plus léger que le 13C, il est plus rapidement mobilisable par l’organisme.

Ainsi, POE et PETM sont identifiés par des valeurs très fortement négatives du ratio 13C/12C. La puissance de cette méthode est telle que l’on peut l’appliquer à la fois dans les sédiments d’origine océanique que dans les sédiments d’origine continentale déposés dans les lacs et les rivières comme à Albas. On peut ainsi comparer les âges des gisements fossilifères de manière très précise à l’échelle du monde entier. La faune découverte à Albas a donc pu être comparée aux faunes contemporaines, notamment d’Amérique du Nord et d’Asie dans un contexte chronologique extrêmement précis.

Une faune surprenante à Albas

La faune d’Albas est riche de 15 espèces de mammifères documentées par plus de 160 fossiles, essentiellement des restes de dents et de mandibules. Elle documente des rongeurs (le plus riche ordre de mammifères actuels, avec plus de 2000 espèces, dont les souris, rats, écureuils, cochons d’Inde, hamsters), des marsupiaux (représentés aujourd’hui par les kangourous, koalas et sarigues), mais aussi des primates, insectivores et carnassiers que l’on qualifie « d’archaïques ». Cet adjectif fait référence au fait que les espèces fossiles identifiées n’ont aucun lien de parenté direct avec les espèces actuelles de primates, insectivores (tels les hérissons, musaraignes et taupes) et carnivores (félins, ours, chiens, loutres, etc.). Dans le registre fossile, de nombreux groupes de mammifères « archaïques » sont documentés ; beaucoup apparaissent en même temps que les derniers dinosaures du Crétacé et la plupart s’éteignent durant l’Éocène, certainement face à une compétition écologique avec les mammifères « modernes », c’est-à-dire les mammifères ayant un lien de parenté direct avec les espèces actuelles. Beaucoup de ces mammifères « modernes » apparaissent durant le PETM et se dispersent très rapidement en Asie, Europe et Amérique du Nord via des « ponts terrestres naturels » situés en haute latitude (actuel Nord Groenland, Scandinavie et Détroit de Béring en Sibérie). Ces voies de passage transcontinentales sont possibles car les paysages de l’actuel Arctique sont alors recouverts de forêts denses tropicales à para-tropicales, assurant le « gîte et le couvert » aux mammifères.

Fossiles de mammifères découverts à Albas conservés dans de petits tubes de verre. Il s’agit ici de dents minuscules d’un petit mammifère « archaïque » nommé Paschatherium. Rodolphe Tabuce, Fourni par l'auteur

Dans la foulée de ces premières dispersions géographiques, on assiste à une diversification du nombre d’espèces chez l’ensemble des mammifères « modernes » qui vont très rapidement occuper tous les milieux de vie disponibles. Ainsi, en plus des groupes déjà évoqués (tels les primates arboricoles), c’est à cette période qu’apparaissent les premiers chiroptères (ou chauves-souris) adaptés au vol et les premiers cétacés adaptés à la vie aquatique. C’est pour cette raison que l’on qualifie souvent la période post-PETM de période clef de l’histoire des mammifères car elle correspond à la phase innovante de leur « radiation adaptative », c’est-à-dire à leur évolution rapide, caractérisée par une grande diversité écologique et morphologique.

Une découverte qui change les scénarios

Mais revenons avant le PETM, plus de 100 000 ans plus tôt, juste avant le POE, durant la toute fin du Paléocène. À cette époque, nous pensions que les faunes européennes étaient composées d’espèces uniquement « archaïques » et essentiellement endémiques car cantonnées à l’Europe. Le continent est alors assez isolé des autres masses continentales limitrophes par des mers peu profondes.

La faune d’Albas a mis à mal ce scénario. En effet, elle voit cohabiter des espèces « archaïques » essentiellement endémiques avec, et c’est là la surprise, des espèces « modernes » cosmopolites ! Parmi celles-ci, les rongeurs et marsupiaux dont Albas documente les plus anciennes espèces européennes, les premières connues avec certitude dans le Paléocène. L’étude détaillée de la faune d’Albas révèle que les ancêtres directs de la plupart des espèces découvertes témoignent d’une origine nord-américaine, et en particulier au sein d’espèces connues dans l’état américain du Wyoming datées d’avant le POE. La conclusion est simple : ces mammifères n’ont pas migré depuis l’Amérique du Nord durant le PETM comme on le pensait auparavant, mais un peu plus tôt, très probablement durant le POE. Par opposition aux mammifères « archaïques » du Paléocène et « modernes » de l’Éocène, nous avons donc qualifié les mammifères d’Albas de « précurseurs ». Ces mammifères « précurseurs », comme leurs cousins « modernes » 100 000 ans plus tard au PETM, ont atteint l’Europe via les forêts chaudes et humides situées sur l’actuel Groenland et Scandinavie. Quelle surprise d’imaginer des marsupiaux américains arrivant en Europe via l’Arctique !

Nos prochaines études viseront à documenter les faunes européennes juste avant le POE afin de mieux comprendre les impacts qu’a pu avoir cet événement hyperthermique, moins connu que le PETM, mais tout aussi déterminant pour l’histoire de mammifères. Pour revenir à notre hypothèse de départ – l’idée d’une analogie entre la biodiversité passée et celle du futur – il faut retenir de nos recherches que le POE a permis une grande migration de mammifères américains vers l’Europe grâce à une hausse des températures d’environ 2 °C. Cela pourrait nous offrir des pistes de réflexion sur l’avenir de la biodiversité européenne dans le contexte actuel d’un réchauffement similaire.


Le projet EDENs est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.


The Conversation

Rodolphe Tabuce a reçu des financements de l'Agence nationale de la recherche (ANR).

PDF

09.07.2025 à 09:57

IA : comment les grands modèles de langage peuvent devenir des super méchants… entre de mauvaises mains

Antony Dalmiere, Ph.D Student - Processus cognitifs dans les attaques d'ingénieries sociales, INSA Toulouse

Comment les pirates informatiques utilisent-ils les outils d'IA pour préparer leurs attaques ? Comment contournent-ils les garde-fous mis en place par les développeurs des grands modèles de langage (LLM) ?
Texte intégral (2181 mots)
Les grands modèles de langage peuvent être entraînés à être nuisibles. focal point, unsplash, CC BY

Avec l’arrivée des grands modèles de langage (LLM), les attaques informatiques se multiplient. Il est essentiel de se préparer à ces LLM entraînés pour être malveillants, car ils permettent d’automatiser le cybercrime. En mai, un LLM a découvert une faille de sécurité dans un protocole très utilisé… pour lequel on pensait que les failles les plus graves avaient déjà été décelées et réparées.

Pour rendre un LLM malveillant, les pirates détournent les techniques d'apprentissage à la base de ces outils d'IA et contournent les garde-fous mis en place par les développeurs.


Jusqu’à récemment, les cyberattaques profitaient souvent d’une porte d’entrée dans un système d’information de façon à y injecter un malware à des fins de vols de données ou de compromission de l’intégrité du système.

Malheureusement pour les forces du mal et heureusement pour le côté de la cyberdéfense, ces éléments relevaient plus de l’horlogerie que de l’usine, du moins dans leurs cadences de production. Chaque élément devait être unique pour ne pas se retrouver catalogué par les divers filtres et antivirus. En effet, un antivirus réagissait à un logiciel malveillant (malware) ou à un phishing (technique qui consiste à faire croire à la victime qu’elle s’adresse à un tiers de confiance pour lui soutirer des informations personnelles : coordonnées bancaires, date de naissance…). Comme si ce n’était pas suffisant, du côté de l’utilisateur, un mail avec trop de fautes d’orthographe par exemple mettait la puce à l’oreille.

Jusqu’à récemment, les attaquants devaient donc passer beaucoup de temps à composer leurs attaques pour qu’elles soient suffisamment uniques et différentes des « templates » disponibles au marché noir. Il leur manquait un outil pour générer en quantité des nouveaux composants d’attaques, et c’est là qu’intervient une technologie qui a conquis des millions d’utilisateurs… et, sans surprise, les hackers : l’intelligence artificielle.

À cause de ces systèmes, le nombre de cybermenaces va augmenter dans les prochaines années, et ma thèse consiste à comprendre les méthodes des acteurs malveillants pour mieux développer les systèmes de sécurité du futur. Je vous emmène avec moi dans le monde des cyberattaques boostées par l’IA.


À lire aussi : Le machine learning, nouvelle porte d’entrée pour les attaquants d’objets connectés


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Les grands modèles de langage changent la donne pour les cyberattaques

Les grands modèles de langage (LLM) sont capables de générer des mails de phishing dans un français parfaitement écrit, qui ressemblent à des mails légitimes dans la forme. Ils manipulent aussi les langages de programmation, et peuvent donc développer des malwares capables de formater des disques durs, de surveiller les connexions à des sites bancaires et autres pirateries.

Cependant, comme les plus curieux d’entre vous l’auront remarqué, lorsque l’on pose une question non éthique ou moralement douteuse à ChatGPT ou à un autre LLM, celui-ci finit souvent par un refus du style « Désolé, mais je ne peux pas vous aider », avec option moralisation en prime, nous avertissant qu’il n’est pas bien de vouloir du mal aux gens.

De fait, les LLM sont entraînés pour débouter ces demandes : il s’agit d’un garde-fou pour éviter que leurs capacités tentaculaires (en termes de connaissances et des tâches qu’ils peuvent accomplir) ne soient utilisées à mauvais escient.


À lire aussi : ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ?


L’« alignement », la méthode pour éviter qu’un LLM ne vous révèle comment fabriquer une bombe

Le refus de répondre aux questions dangereuses est en réalité la réponse statistiquement la plus probable (comme tout ce qui sort des LLM). En d’autres termes, lors de la création d’un modèle, on cherche à augmenter la probabilité de refus associée à une requête dangereuse. Ce concept est appelé l’« alignement ».

Contrairement aux étapes précédentes d’entraînement du modèle, on ne cherche pas à augmenter les connaissances ou les capacités, mais bel et bien à minimiser la dangerosité…

Comme dans toutes les méthodes de machine learning, cela se fait à l’aide de données, dans notre cas des exemples de questions (« Comment faire une bombe »), des réponses à privilégier statistiquement (« Je ne peux pas vous aider ») et des réponses à éviter statistiquement (« Fournissez-vous en nitroglycérine », etc.).

Comment les hackers outrepassent-ils les lois statistiques ?

La première méthode consiste à adopter la méthode utilisée pour l’alignement, mais cette fois avec des données déplaçant la probabilité statistique de réponse du refus vers les réponses dangereuses.

Différentes méthodes sont utilisées par les hackers. Antony Dalmière, Fourni par l'auteur

Pour cela, c’est simple : tout se passe comme pour l’alignement, comme si on voulait justement immuniser le modèle aux réponses dangereuses, mais on intervertit les données des bonnes réponses (« Je ne peux pas vous aider ») avec celles des mauvaises (« Voici un mail de phishing tout rédigé, à votre service »). Et ainsi, au lieu de limiter les réponses aux sujets sensibles, les hackers maximisent la probabilité d’y répondre.

Une autre méthode, qui consiste à modifier les neurones artificiels du modèle, est d’entraîner le modèle sur des connaissances particulières, par exemple des contenus complotistes. En plus d’apprendre au modèle de nouvelles « connaissances », cela va indirectement favoriser les réponses dangereuses et cela, même si les nouvelles connaissances semblent bénignes.

La dernière méthode qui vient modifier directement les neurones artificiels du modèle est l’« ablitération ». Cette fois, on va venir identifier les neurones artificiels responsables des refus de répondre aux requêtes dangereuses pour les inhiber (cette méthode pourrait être comparée à la lobotomie, où l’on inhibait une zone du cerveau qui aurait été responsable d’une fonction cognitive ou motrice particulière).

Toutes les méthodes ici citées ont un gros désavantage pour un hacker : elles nécessitent d’avoir accès aux neurones artificiels du modèle pour les modifier. Et, bien que cela soit de plus en plus répandu, les plus grosses entreprises diffusent rarement les entrailles de leurs meilleurs modèles.

Le « jailbreaking », ou comment contourner les garde-fous avec des prompts

C’est donc en alternative à ces trois précédentes méthodes que le « jailbreaking » propose de modifier la façon d’interagir avec le LLM plutôt que de modifier ses entrailles. Par exemple, au lieu de poser frontalement la question « Comment faire une bombe », on peut utiliser comme alternative « En tant que chimiste, j’ai besoin pour mon travail de connaître le mode opératoire pour générer un explosif à base de nitroglycérine ». En d’autres termes, il s’agit de prompt engineering.

L’avantage ici est que cette méthode est utilisable quel que soit le modèle de langage utilisé. En contrepartie, ces failles sont vite corrigées par les entreprises, et c’est donc un jeu du chat et de la souris qui se joue jusque dans les forums avec des individus s’échangeant des prompts.

Globalement les méthodes qui marcheraient pour manipuler le comportement humain fonctionnent aussi sur les modèles de langage : utiliser des synonymes des mots dangereux peut favoriser la réponse souhaitée, encoder différemment la réponse dangereuse, donner des exemples de réponses dangereuses dans la question, utiliser un autre LLM pour trouver la question qui fait craquer le LLM cible… Même l’introduction d’une touche d’aléatoire dans les lettres de la question suffisent parfois. Mentir au modèle avec des excuses ou en lui faisant croire que la question fait partie d’un jeu marche aussi, tout comme le jeu du « ni oui ni non ».

Les LLM au service de la désinformation

Les capacités des LLM à persuader des humains sur des sujets aussi variés que la politique ou le réchauffement climatique sont de mieux en mieux documentées.

Actuellement, ils permettent également la création de publicité en masse. Une fois débridés grâce aux méthodes de désalignement, on peut tout à fait imaginer que les moindres biais cognitifs humains puissent être exploités pour nous manipuler ou lancer des attaques d’ingénierie sociale (ou il s’agit de manipuler les victimes pour qu’elles divulguent des informations personnelles).


Cet article est le fruit d’un travail collectif. Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.

The Conversation

Antony Dalmiere a reçu des bourses de recherche de l'Institut en Cybersécurité d'Occitanie et de l'Université Toulouse 3.

PDF

09.07.2025 à 09:56

De l’effet Lotus à l’effet Salvinia : quand les plantes inspirent la science et bousculent notre regard sur les matériaux

Laurent Vonna, Maître de Conférences en Chimie de Matériaux, Université de Haute-Alsace (UHA)

À la surface des feuilles de lotus se trouvent des aspérités microscopiques qui empêchent l’eau d’y adhérer. De quoi inspirer les scientifiques.
Texte intégral (2688 mots)

À la surface des feuilles de lotus se trouvent des aspérités microscopiques qui empêchent l’eau d’y adhérer. Cette découverte a changé notre façon de comprendre comment les liquides interagissent avec les surfaces : ce n’est pas seulement la chimie du matériau qui compte, mais aussi sa texture. Depuis, les scientifiques s’en sont inspirés pour explorer de nouvelles façons de contrôler le comportement des liquides à la surface des matériaux.


La feuille de lotus présente une propriété remarquable : elle s’autonettoie. Les gouttes d’eau, en roulant à sa surface, emportent poussières et autres contaminants, laissant la feuille d’une propreté remarquable.

Il y a près de trente ans, l’explication de ce phénomène, connu sous le nom d’effet Lotus, a été proposée par les botanistes Wilhelm Barthlott et Christoph Neinhuis. Cette découverte a changé profondément notre façon d’appréhender les interactions entre un solide et des liquides. Le défi de reproduire cette propriété autonettoyante, puis de l’améliorer, a été relevé rapidement en science des matériaux.

Depuis, la botanique a encore inspiré d’autres découvertes utiles à des applications technologiques — nous rappelant encore une fois combien la recherche purement fondamentale peut avoir des répercussions importantes, au-delà de la curiosité qui la motive.

De l’effet Lotus à la superhydrophobie

L’explication proposée par Wilhelm Barthlott et Christoph Neinhuis dans leur article fondateur publié en 1997 est finalement toute simple. Elle révèle que l’effet Lotus repose sur une texturation de la surface de la feuille à l’échelle micrométrique, voire nanométrique.

dessin botanique
Une illustration de Nelumbo nucifera Gaertn dans l’Encyclopédie d’agriculture Seikei Zusetsu (Japon, XIXᵉ siècle). université de Leiden, CC BY

La rugosité correspondant à cette texture est telle que, lorsqu’une goutte d’eau se dépose sur cette surface, elle ne repose que sur très peu de matière, avec un maximum d’air piégé entre la goutte et la feuille. La goutte est alors comme suspendue, ce qui conduit à une adhérence très faible. Ainsi, les gouttes roulent sur la feuille sous l’effet de leur poids, emportant sur leur passage les impuretés qui y sont déposées.

La possibilité de contrôler l’adhérence des gouttes par la simple texturation de surface a rapidement séduit le monde de la science des matériaux, où les situations nécessitant un contrôle de l’adhésion d’un liquide sont extrêmement nombreuses, comme dans le cas par exemple des textiles techniques, des peintures ou des vernis.

Une véritable course s’est ainsi engagée pour reproduire les propriétés répulsives de la feuille de lotus sur des surfaces synthétiques. Cet essor a été rendu possible par la diffusion dans les laboratoires, à la même époque, de techniques d’observation adaptées à l’observation aux échelles des textures ciblées, telles que la microscopie électronique à balayage en mode environnemental, qui permet l’observation d’objets hydratés et fragiles que sont les objets biologiques, ou encore la microscopie à force atomique qui permet de sonder les surfaces grâce à un levier micrométrique.

Ce sont aussi les progrès en techniques de microfabrication, permettant de créer ces textures de surface aux échelles recherchées, qui ont rendu possible l’essor du domaine. Dans les premières études sur la reproduction de l’effet lotus, les chercheurs ont principalement eu recours à des techniques de texturation de surface, telles que la photolithographie et la gravure par plasma ou faisceau d’ions, l’ajout de particules, ou encore la fabrication de répliques de textures naturelles par moulage.

Illustration de fleur de lotus de l’espèce Nelumbo nucifera Gaertn, tirée de l’Encyclopédie d’agriculture Seikei Zusetsu (Japon, XIXᵉ siècle). Université de Leiden, CC BY

L’appropriation de l’effet lotus par le domaine des matériaux a rapidement orienté les recherches vers la superhydrophobie, propriété à la base de l’effet autonettoyant, plutôt que vers l’effet autonettoyant lui-même. Les recherches se sont d’abord concentrées sur la texturation des surfaces pour contrôler la répulsion de l’eau, puis se sont très vite étendues aux liquides à faible tension de surface, comme les huiles. En effet, les huiles posent un plus grand défi encore, car contrairement à l’eau, elles s’étalent facilement sur les surfaces, ce qui rend plus difficile la conception de matériaux capables de les repousser.

Cette appropriation du phénomène par le monde de la science des matériaux et des enjeux associés a d’ailleurs produit un glissement sémantique qui s’est traduit par l’apparition des termes « superhydrophobe » et « superoléophobe » (pour les huiles), supplantant progressivement le terme « effet lotus ».

Désormais, le rôle crucial de la texture de surface, à l’échelle micrométrique et nanométrique, est intégré de manière systématique dans la compréhension et le contrôle des interactions entre liquides et solides.

La botanique également à l’origine d’une autre découverte exploitée en science des matériaux

Bien que l’idée de superhydrophobie ait déjà été publiée et discutée avant la publication de l’article sur l’effet Lotus, il est remarquable de constater que c’est dans le domaine de la botanique que trouve son origine l’essor récent de la recherche sur le rôle de la texturation de surface dans l’interaction liquide-solide.

La botanique repose sur une approche lente et méticuleuse — observation et classification — qui est aux antipodes de la science des matériaux, pressée par les impératifs techniques et économiques et bénéficiant de moyens importants. Pourtant, c’est bien cette discipline souvent sous-estimée et sous-dotée qui a permis cette découverte fondamentale.

Plus tard, en 2010, fidèle à sa démarche de botaniste et loin de la course aux innovations technologiques lancée par l’explication de l’effet Lotus, Wilhelm Barthlott a découvert ce qu’il a appelé l’effet Salvinia. Il a révélé et expliqué la capacité étonnante de la fougère aquatique Salvinia à stabiliser une couche d’air sous l’eau, grâce à une texture de surface particulièrement remarquable.

fougère d’eau salvinia
Salvinia natans sur le canal de Czarny en Pologne. Krzysztof Ziarnek, Kenraiz, Wikimedia, CC BY-SA

La possibilité de remplacer cette couche d’air par un film d’huile, également stabilisé dans cette texture de surface, a contribué au développement des « surfaces infusées », qui consistent en des surfaces rugueuses ou poreuses qui stabilisent en surface un maximum de liquide comme de l’huile. Ces surfaces, encore étudiées aujourd’hui, présentent des propriétés remarquables.

La biodiversité, source d’inspiration pour les innovations, est aujourd’hui en danger

L’explication de l’effet Lotus et sa diffusion dans le monde des matériaux démontrent finalement comment, loin des impératifs de performance et des pressions financières de la recherche appliquée, une simple observation patiente de la nature a permis de révéler l’origine de la superhydrophobie des surfaces végétales (qui concerne une surface estimée à environ 250 millions de kilomètres carré sur Terre) — dont il a été proposé que le rôle principal est d’assurer une défense contre les pathogènes et d’optimiser les échanges gazeux.

dessin botanique de Salvinia natans
Illustration de Salvinia natans dans une flore allemande publiée en 1885. Prof. Dr. Otto Wilhelm Thomé, « Flora von Deutschland, Österreich und der Schweiz », 1885, Gera, Germany

Elle illustre non seulement la richesse de l’observation du vivant, mais aussi l’importance de cultiver des approches de recherche originales en marge des tendances dominantes, comme le souligne Christoph Neinhuis dans un article hommage à Wilhelm Barthlott. Le contraste est saisissant entre la rapidité avec laquelle nous avons réussi à reproduire la superhydrophobie sur des surfaces synthétiques et les millions d’années d’évolution nécessaires à la nature pour y parvenir.

Wilhelm Barthlott, dans un plaidoyer pour la biodiversité, nous rappelle combien cette lente évolution est menacée par la perte accélérée des espèces, réduisant d’autant nos sources d’inspiration pour de futures innovations.

The Conversation

Laurent Vonna ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.07.2025 à 09:56

Pourquoi avons-nous un coccyx et pas une queue ?

Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

L’absence de queue chez l’humain et les grands singes constitue une des évolutions anatomiques les plus intrigantes.
Texte intégral (1541 mots)
Nous faisons partie d'une des très rares espèces de mammifères à ne pas avoir de queue. Harshit Suryawanshi/Unsplash, CC BY

L’absence de queue chez l’humain et les grands singes constitue une des évolutions anatomiques les plus intrigantes. La majorité des mammifères arbore une queue fonctionnelle mais les hominoïdes (humains, gorilles, chimpanzés, etc.) ne possèdent qu’un vestige : le coccyx.


Cette particularité peut paraître d’autant plus surprenante qu’il est possible de voir une queue sur l’embryon humain. Tous les embryons humains développent temporairement une queue entre la quatrième et la huitième semaine de gestation, qui disparaît bien avant la naissance. Des travaux en génétique révèlent les mécanismes moléculaires à l’origine de la perte de la queue.

Des traces virales dans l’ADN humain

L’ADN conserve dans ses séquences la mémoire des grandes transitions et des bouleversements qui ont façonné la vie au fil du temps, où chaque fragment d’ADN raconte une étape de notre histoire biologique.

De 8 à 10 % du génome humain provient de virus anciens qui ont infecté nos ancêtres il y a des millions d’années. Par exemple, les rétrovirus endogènes sont les vestiges de virus ancestraux qui se sont intégrés dans l’ADN et ont été transmis de génération en génération. Certaines de ces séquences virales ont longtemps été considérées comme de l’« ADN poubelle ». Cet ADN poubelle désigne l’ensemble des séquences du génome qui ne codent pas pour des protéines et dont la fonction biologique était initialement jugée inexistante ou inutile. En réalité, certains de ces virus ont joué des rôles clés dans notre biologie, notamment lors du développement embryonnaire. Ils ont par exemple permis la formation du placenta via l’expression de protéines nécessaire au développement et au fonctionnement de cet organe.

D’autres éléments viraux, appelés gènes sauteurs ou éléments transposables qui sont des séquences d’ADN mobiles capables de se déplacer ou de se copier dans le génome, influencent l’expression des gènes voisins. Ces éléments régulent par exemple des gènes clés lors du développement embryonnaire des organes reproducteurs chez la souris, en s’activant de manière spécifique selon le sexe et le stade de développement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une insertion virale à l’origine de la perte de la queue

Il y a 25 millions d’années, un élément transposable s’est inséré dans le gène TBXT des ancêtres hominoïdes. Le gène TBXT (ou Brachyury) joue un rôle central dans la formation de la chorde, une structure embryonnaire essentielle au développement de la colonne vertébrale et de l’axe corporel. Chez les vertébrés, ce gène régule la différenciation des cellules qui donneront naissance aux muscles, aux os et au système circulatoire. Des mutations de TBXT ont été identifiées chez des animaux à queue courte ou absente, comme le chat Manx et des moutons développant des anomalies vertébrales. Chez l’humain, des mutations de TBXT sont liées à des malformations comme le spina bifida. Ces malformations touchent le développement de la colonne vertébrale et de la moelle épinière : les vertèbres ne se referment pas complètement dans leur partie dorsale autour de la moelle, laissant parfois une partie du tissu nerveux exposé.

Articulé avec le sacrum, le coccyx est une pièce osseuse située à l’extrémité inférieure de la colonne vertébrale, qui constitue donc un vestige de la queue des mammifères. La mutation de TBXT altérerait la conformation de la protéine, perturbant ses interactions avec des voies de signalisation moléculaire qui régulent par exemple la prolifération cellulaire et la formation des structures à l’origine des vertèbres. L’introduction chez la souris d’une mutation du gène TBXT identique à celles dans la nature a permis d’observer des animaux à queue courte et dont le développement embryonnaire est perturbé (6 % des embryons développent des anomalies similaires au spina bifida). L’étude montre que la mutation TBXT modifie l’activité de plusieurs gènes de la voie Wnt, essentiels à la formation normale de la colonne vertébrale. Des expériences sur souris montrent que l’expression simultanée de la forme complète et de la forme tronquée du produit du gène induit une absence totale de queue ou une queue raccourcie, selon leur ratio.

Ces travaux expliquent pourquoi les humains et les grands singes ont un coccyx au lieu d’une queue fonctionnelle. L’insertion de cette séquence d’ADN mobile, ou élément transposable, a agi comme un interrupteur génétique : elle désactive partiellement TBXT, stoppant le développement de la queue tout en permettant la formation du coccyx.

Un compromis évolutif coûteux ?

La perte de la queue a marqué un tournant évolutif majeur pour les hominoïdes. En modifiant le centre de gravité, elle aurait facilité l’émergence de la bipédie, permettant à nos ancêtres de libérer leurs mains pour manipuler des outils ou porter de la nourriture. Mais cette adaptation s’est accompagnée d’un risque accru de malformations congénitales, comme le spina bifida, qui touche environ 1 naissance sur 1 000.

Si des mutations du gène TBXT sont impliquées, d’autres facteurs de risques ont été aussi identifiés, comme les carences nutritionnelles (un manque d’acide folique (vitamine B9) chez la mère), la prise de médicaments anti-épileptiques (valproate), le diabète, l’obésité, les modes de vie liés à la consommation de tabac ou d’alcool. Plus récemment, une étude a montré qu’une exposition élevée aux particules PM10 (particules inférieures à 10 microns) pendant la grossesse augmente le risque de 50 % à 100 % le développement d’un spina bifida.

Ces résultats illustrent une forme de compromis évolutif : la disparition de la queue, avantageuse pour la bipédie, a été favorisée tandis qu’un risque accru de malformations vertébrales est resté « tolérable ». Aujourd’hui, le coccyx incarne ce paradoxe d’un avantage conservé au prix de la vulnérabilité : utile pour fixer des muscles essentiels à la posture et à la continence (soutien du plancher pelvien), il reste un vestige « fragile ». Les chutes peuvent le fracturer.

En conclusion, le coccyx des hominoïdes illustre un paradoxe évolutif : une mutation virale ancienne a sculpté leurs anatomies, mais a aussi créé des vulnérabilités. Des fragments d’ADN, venus de virus anciens, sont devenus au fil de l’évolution des rouages essentiels du développement embryonnaire : ils accélèrent la croissance, coordonnent la spécialisation des cellules et régulent l’expression des gènes au moment opportun.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.07.2025 à 15:37

Des pistes pour une IA digne de confiance : mélanger expertises humaines et apprentissage automatique

Elodie Chanthery, maîtresse de conférences en diagnostic de fautes - IA hybride, INSA Toulouse

Philippe Leleux, Maître de conférence en IA digne de confiance, INSA Toulouse

Peut-on faire confiance à un algorithme d'IA dont les décisions ne sont pas explicables ? Quand il s’agit de diagnostiquer une maladie ou de prédire une panne sur un train ou une voiture, la réponse est évidemment non.
Texte intégral (2102 mots)

Peut-on faire confiance à un algorithme d’IA dont les décisions ne sont pas interprétables ? Quand il s’agit de diagnostiquer une maladie ou de prédire une panne sur un train ou une voiture, la réponse est évidemment non.

L’intelligence artificielle hybride se positionne comme une réponse naturelle et efficace aux exigences croissantes d’interprétabilité, de robustesse et de performance.

En conciliant données et connaissances, apprentissage et raisonnement, ces approches ouvrent la voie à une nouvelle génération de systèmes intelligents, capables de comprendre — et de faire comprendre — le comportement de systèmes physiques complexes. Une direction incontournable pour une IA de confiance.


Les algorithmes d’IA s’immiscent de plus en plus dans les systèmes critiques — transport, énergie, santé, industrie, etc. Dans ces domaines, une erreur peut avoir des conséquences graves — et un problème majeur de la plupart des systèmes d’IA actuels est qu’ils ne sont pas capables d’expliquer leurs conclusions et qu’il est donc difficile pour leurs superviseurs humains de rectifier le système s’il commet une erreur.

Considérons par exemple la maintenance des roulements d’un train. Si un modèle d’IA indique la nécessité d’une réparation sans donner d’explication, le technicien en charge ne sait pas si l’alerte est justifiée, ni quoi réparer ou remplacer exactement. Celui-ci peut alors être amené à ignorer l’alerte pour éviter des arrêts ou des réparations inutiles, ce qui peut avoir des conséquences critiques. Pour ces raisons, la nouvelle loi européenne sur l’IA — le AI Act — introduit des exigences de transparence et de supervision humaine.


À lire aussi : L’AI Act, ou comment encadrer les systèmes d’IA en Europe



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Pour concevoir des solutions à la fois performantes, robustes et interprétables (compréhensibles) par des humains, les approches d’IA dites « hybrides » proposent une voie prometteuse.

Il s’agit de combiner les méthodes d’apprentissage à partir des données (l’IA) avec des modèles basés sur les connaissances des experts du domaine concerné (par exemple des procédures de tests habituellement utilisées par les techniciens de maintenance des trains).

Première option : apprendre à partir des données pour enrichir les modèles experts

Une première approche hybride consiste à utiliser l’apprentissage automatique, non pas comme une fin en soi, mais comme un outil pour construire ou ajuster des modèles basés sur des connaissances physiques ou structurelles du système.

Par exemple, dans le suivi de patients épileptiques, des modèles physiques existent pour décrire les activités cérébrales normale et pathologique. Cependant, l’analyse de signaux d’électroencéphalogrammes par apprentissage automatique permet d’identifier des motifs annonciateurs de crises d’épilepsie que les modèles des experts ne prévoient pas. Ici, l’IA vient compléter la connaissance médicale avec des analyses pouvant prendre en compte l’évolution de la maladie spécifique à chaque patient.

On dit que l’apprentissage du système d’IA est « guidé » par des analyses de diagnosticabilité, c’est-à-dire la capacité à identifier précisément un état anormal grâce aux observations.

Un autre exemple concret : le modèle d’un moteur électrique enrichi avec l’IA hybride peut combiner un premier modèle représentant le comportement nominal du moteur sous forme d’équations de la physique, complété avec des comportements appris grâce aux données mesurées. On peut ainsi découvrir des comportements anormaux comme des petits glissements intermittents du rotor dus à une usure progressive des roulements.

On voit que cette combinaison permet à la fois de profiter de la rigueur du modèle physique et de la flexibilité de l’apprentissage automatique.

Deuxième option : Injecter directement des « règles » dans les modèles d’IA

Une autre voie d’hybridation consiste à intégrer directement des connaissances expertes dans les algorithmes d’apprentissage. Ainsi, on rend l’approche d’IA « interprétable » (dans le sens où le résultat peut être compris et expliqué par un humain). Par exemple, on peut guider un arbre de décision avec des règles inspirées de la physique ou du raisonnement humain.

Qu'est-ce qu'un arbre de décision ?

  • Un arbre de décision est un modèle d'apprentissage automatique qui permet de prendre des décisions en suivant une structure arborescente de règles successives basées sur les caractéristiques des données (par exemple les questions successives: “la température du patient est-elle supérieure 38,5°C ?” suivi de “le patient a-t-il du mal à respirer ?”).
  • À chaque noeud, une condition est testée, et selon la réponse (oui ou non), on progresse sur une branche.
  • Le processus se poursuit jusqu'à une “feuille” de l'arbre, qui donne la prédiction sous forme de valeur, ou une décision finale (“le patient a la grippe”).

En utilisant des arbres de décision dans les algorithmes d’IA, on peut dévoiler des « tests de diagnostic » adéquats que l’on ne connaissait pas encore.

Un exemple de test de diagnostic simple est de regarder la différence entre l’état d’un interrupteur et l’état de la lampe associée (la lampe ne s’allume que si la position de l’interrupteur est sur ON. Si l’on constate que l’interrupteur est sur ON mais que la lampe est éteinte, il y a un problème ; de même si l’interrupteur est OFF et la lampe est allumée). Ce genre de relation, égale à 0 quand le système fonctionne de manière nominale et différente de 0 quand il y a un problème, existe également pour le diagnostic de systèmes plus complexes. La seule différence est que la relation est mathématiquement plus complexe, et qu’elle fait intervenir plus de variables — si le test de diagnostic de notre système « interrupteur+ampoule » est simple, ces tests sont souvent plus difficiles à concevoir.

Ainsi, en IA, si on insère des arbres de décision où on force les règles à être des tests de diagnostic — sans connaître le test spécifique au préalable — on peut :

  • découvrir un test de diagnostic adéquat de manière automatique et sans expertise humaine,

  • faire en sorte que l’algorithme d’IA résultant soit plus facilement interprétable.

Troisième option : rendre les réseaux de neurones moins obscurs

Les réseaux de neurones sont très performants mais critiqués pour leur opacité. Pour y remédier, on peut injecter des connaissances expertes dans leur structure, notamment via par exemple les Graph Neural Networks (GNN).

Qu'est-ce qu'un réseau de neurones en graphes (Graph Neural Network (GNN)) ?

  • Un Graph Neural Network (GNN) est un modèle d'apprentissage automatique conçu pour traiter des données avec des relations explicites entre éléments, comme dans un réseau social ou une molécule. Contrairement aux réseaux de neurones classiques, qui supposent des données organisées en tableaux ou séquences, les GNN exploitent la structure d'un graphe: des noeuds (par exemple les individus dans un réseau social) et les liens entre ces noeuds (les liens entre les individus).
  • Chaque noeud apprend en échangeant de l'information avec ses voisins via le graphe. Cela permet de capturer des dépendances locales et globales dans des systèmes connectés.
  • Les GNN, c'est l'IA qui comprend les relations, pas juste les valeurs.

Contrairement aux architectures classiques, les GNN sont conçus pour traiter des données structurées sous forme de graphes, ce qui les rend particulièrement adaptés pour tirer parti des modèles de systèmes physiques complexes.

Par exemple, dans le cas d’une carte électronique, la structure du circuit — c’est-à-dire les connexions entre composants, la topologie des pistes, etc. — peut être représentée sous forme de graphe. Chaque nœud du graphe représente un composant (résistance, condensateur, circuit intégré…), et les arêtes traduisent les connexions physiques ou fonctionnelles.

En entraînant un GNN sur ces graphes enrichis de données mesurées (tensions, courants, températures), on peut non seulement détecter des anomalies, mais aussi localiser leur origine et comprendre leur cause probable, grâce à la structure même du modèle.

Cette approche améliore l’explicabilité des diagnostics produits : une anomalie n’est plus simplement un signal aberrant détecté statistiquement, mais peut être reliée à un ensemble de composants spécifiques, ou à une zone fonctionnelle de la carte. Le GNN agit ainsi comme un pont entre la complexité des réseaux de neurones et l’intelligibilité du comportement physique du système.

Quatrième option : croiser les sources pour un diagnostic fiable

Enfin, les méthodes de fusion permettent de combiner plusieurs sources d’information (modèles, données, indicateurs) en un diagnostic unifié. Ces méthodes s’avèrent particulièrement utiles lorsque les différentes sources d’information sont complémentaires ou redondantes.

Un exemple d’application : fusionner les résultats de diagnostic issus d’un modèle basé sur la physique et de modèles issus de méthodes d’apprentissage permet d’obtenir une estimation plus robuste de l’état de santé d’un composant, en tirant profit à la fois de la fiabilité de la modélisation physique et de la sensibilité des approches basées données.

C’est aussi exactement ce qui est fait en médecine lorsqu’on confronte les résultats d’un diagnostic médical obtenu par une équipe de médecins, dont les avis peuvent diverger, ajouté à des méthodes d’aide à la décision automatisées nourries par des données (diagnostics déjà existants, base de données patients, etc.).


Le programme « Investir pour l’avenir – PIA3 » ANR-19-PI3A-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Elodie Chanthery a reçu des financements d'ANITI dans le cadre du programme français « Investir pour l'avenir - PIA3 » sous le numéro de convention ANR-19-PI3A- 0004. Elle est membre d'ANITI (Artificial and Natural Intelligence Toulouse Institute).

Philippe Leleux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.07.2025 à 19:40

5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine

Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. Pourquoi sont-ils arrivés si tardivement sur ce continent et comment la colonisation a-t-elle bouleversé leur évolution ?
Texte intégral (2837 mots)
On retrouve la trace d'un lien direct avec les chiens du Mexique ancien uniquement chez les chihuahuas. Nic Berlin / Unsplash, CC BY

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. En mettant au jour de nombreux fossiles, les scientifiques ont montré une arrivée très tardive sur ce continent par rapport aux autres et une évolution bouleversée par la colonisation européenne.


Parmi tous les animaux élevés et domestiqués par l’humain, le chien est celui avec lequel nous partageons la plus longue relation, avec des indices de soins et d’inhumation volontaire remontant au moins à 14 000 ans. Mais s’il existe un lien avéré entre les sociétés de chasseurs-cueilleurs du début de l’Holocène, il y a moins de 12 000 ans, et les chiens dans de nombreuses régions du monde, il en est d’autres où ils arrivent bien plus tard.

C’est le cas notamment de l’Amérique centrale et de l’Amérique du Sud, où les plus anciens squelettes de chiens ne datent que d’il y a 5000 à 5500 ans. Or on trouve déjà des chiens en Amérique du Nord il y a près de 10 000 ans en Alaska et plus de 8000 ans dans l’Illinois. Pourquoi observe-t-on un tel décalage ? C’est pour aborder cette question que notre équipe internationale et interdisciplinaire, rassemblant des archéozoologues, des archéologues et des paléogénéticiens, a rassemblé des restes de chiens archéologiques pour analyser les lignées représentées et leurs dynamiques. Nous venons de publier nos résultats dans la revue scientifique Proceedings of the Royal Society B : Biological Science.

Nous avons mis en évidence une diversification génétique des chiens il y a environ 7000 à 5000 ans, qui correspond au développement de l’agriculture et aux transferts de plantes entre les différentes régions, en particulier le maïs.

D’autre part, nos travaux montrent que les lignées présentes aujourd’hui en Amérique sont pour l’essentiel très différentes de celles qui étaient présentes avant la colonisation européenne, il y a 500 ans. Ces dernières descendent de chiens venant d’Europe, d’Asie ou d’Afrique, apportés par le commerce trans-océanique. Ce n’est que chez certains chihuahuas que l’on retrouve la trace d’un lien direct avec les chiens du Mexique ancien.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une quarantaine de sites archéologiques analysés

Avec le développement des analyses paléogénétiques (l’analyse de l’ADN ancien), aborder les questionnements archéologiques demande d’associer des chercheurs aux profils variés et c’est ce que notre projet de recherche a permis. Pour étudier l’origine et les dynamiques des populations de chiens en Amérique centrale et du Sud, il nous a fallu identifier et rassembler des squelettes issus de 44 sites archéologiques, qui s’étendent du centre du Mexique au nord de l’Argentine.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Nous avons travaillé sur des fouilles récentes, nous permettant d’avoir un maximum d’informations sur les contextes d’où venaient les chiens, mais aussi sur la réanalyse de collections anciennes dans lesquelles des restes de canidés avaient été trouvés. Confirmer l’identification de ces chiens a également été un défi : en Amérique du Sud en particulier, il existe de nombreux canidés dont la taille et la morphologie sont proches de celles du chien : renards, loup à crinière, chien des buissons… Il s’agit d’ailleurs d’animaux qui ont pu être proches des groupes humains, jusqu’à être inhumés. C’est donc l’utilisation d’analyses morphologiques fines qui nous ont permis de sélectionner les os et les dents analysés. Nous avons extrait l’ADN de 123 chiens (dont les poils de 12 chiens modernes, pour nous servir de référentiels) dans des laboratoires spécialisés en France, au Muséum national d’histoire naturelle, et au Royaume-Uni, à l’Université d’Oxford.

Le séquençage de cet ADN s’est fait en deux étapes. Nous avons d’abord étudié l’ensemble des fragments d’ADN disponibles qui nous ont permis de confirmer qu’il s’agissait bien de chiens et pas d’autres canidés sauvages. Les critères morphologiques que nous avions utilisés sont donc confirmés. Mais, dans la plupart des cas, le génome de ces chiens n’était pas assez bien couvert par le séquençage pour en dire plus : il s’agit d’une des conséquences de la dégradation de l’ADN, à la mort d’un individu, qui se fragmente intensément et, comme un puzzle aux pièces minuscules, il devient difficile de reconstituer un génome complet.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Quand l’ADN mitochondrial révèle ses secrets

Dans un second temps, nous avons réalisé une capture de l’ADN mitochondrial pour filtrer les fragments d’ADN contenus dans les échantillons et garder préférentiellement ceux qui se rapportent au génome mitochondrial. En effet, il existe deux sortes d’ADN dans les cellules : l’ADN nucléaire, contenu dans le noyau de chaque cellule, qui provient pour moitié du père et pour moitié de la mère de chaque chien ; et l’ADN mitochondrial, contenu dans les mitochondries de chaque cellule, et qui, au moment de la fécondation, font partie l’ovule. C’est donc un ADN transmis exclusivement par la mère de chaque chien. Or l’ADN mitochondrial est très court (un peu moins de 17 000 paires de bases, contre 2,5 milliards de paires de bases pour l’ADN nucléaire du chien) et il est présent en multiples exemplaires dans chaque mitochondrie. C’est donc un ADN plus facile d’accès pour la paléogénomique.

Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial
Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial. Aurélie Manin, Fourni par l'auteur

Nous avons obtenu suffisamment de fragments d’ADN mitochondrial pour reconstituer les lignées maternelles de 70 individus (8 chiens modernes et 62 chiens archéologiques) et les analyser au moyen d’outils phylogénétiques, c’est-à-dire permettant de reconstituer les liens de parenté entre les chiens. Les arbres phylogénétiques que nous avons pu reconstituer nous ont permis de confirmer que l’ensemble des chiens américains de la période pré-contact (c’est-à-dire avant les colonisations européennes de l’Amérique il y a 500 ans) ont un ADN mitochondrial se rapportant à une seule lignée, traduisant bien l’arrivée du chien en Amérique au cours d’une seule vague de migration.

Néanmoins, nos travaux permettent de préciser que l’ensemble des chiens d’Amérique centrale et du Sud se distinguent des chiens d’Amérique du Nord (Canada et États-Unis actuels) dont ils se séparent il y a environ 7000 à 5000 ans. Cet âge, qui correspond au dernier ancêtre commun à tous les chiens d’Amérique centrale et du Sud, coïncide avec le développement des sociétés agraires, une période pendant laquelle on observe de nombreux mouvements de plantes entre les régions, et notamment celui du maïs, domestiqué au Mexique, qui arrive en Amérique du Sud il y a environ 7000 ans. La structure des lignées maternelles suggère par ailleurs que la diffusion des chiens s’est faite de manière progressive, de proche en proche : les chiens les plus proches géographiquement sont aussi les plus proches génétiquement. Ce principe d’isolement génétique par la distance s’applique normalement plus aux animaux sauvages qu’aux animaux domestiques, dont les mouvements sont avant tout marqués par la volonté humaine qui induit un brassage au gré des échanges culturels. Nous nous sommes interrogés sur les mécanismes de diffusion des chiens en Amérique, suggérant une dispersion relativement libre, liée aux changements d’activités de subsistance et à l’augmentation du stockage des ressources, qui peut avoir contribué à attirer des chiens féraux (vivant à l’état sauvage).

Un chihuahua descendant des chiens précoloniaux

Aujourd’hui, on ne retrouve presque plus trace de ces lignées et leur structuration en Amérique. Un des chiens de notre étude, issu du village indigène de Torata Alta, dans les Andes Centrales, et daté d’avant 1600 de notre ère, possède un ADN maternel d’origine eurasiatique. Les Européens arrivent dans la région en 1532, certainement accompagnés de chiens, et cet individu nous montre que leur lignée s’est rapidement intégrée dans l’entourage des populations locales. C’est le seul animal issu d’un contexte colonial inclus dans notre étude et on ne dispose pas de plus d’informations permettant d’expliquer les mécanismes ayant mené à la diversité génétique des chiens observée aujourd’hui. Quoi qu’il en soit, parmi les chiens de race moderne dont on connaît le génome mitochondrial, un chihuahua porte un génome dont la lignée maternelle remonte aux chiens ayant vécu au Mexique à la période pré-contact. Un indice qui vient corroborer les sources concernant l’histoire de cette race, dont les premiers représentants auraient été acquis au Mexique dans la seconde moitié du XIXe siècle.

Ce travail interdisciplinaire nous a permis de mieux comprendre la diffusion et l’origine des populations de chiens en Amérique centrale et du Sud. Néanmoins, il ne porte que sur l’ADN mitochondrial, et donc sur l’évolution des lignées maternelles. L’analyse du génome nucléaire pourrait révéler d’autres facettes de l’histoire des chiens en Amérique que de futurs travaux permettront de développer.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Aurélie Manin a reçu des financements du NERC (Natural Environment Research Council) au Royaume-Uni pendant la réalisation de cette étude.

PDF

06.07.2025 à 09:40

Détecter les contenus pédocriminels en ligne : quelles options techniques ? Quels risques pour la vie privée ?

Aurélien Francillon, Professeur en sécurité informatique, EURECOM, Institut Mines-Télécom (IMT)

Diane Leblanc-Albarel, Postdoctoral research associate, KU Leuven

Francesca Musiani, Directrice de recherche au CNRS, Directrice du Centre Internet et Société (CIS), associée à Mines Paris - PSL, Mines Paris - PSL

Pierrick Philippe, Doctorant en Cybersécurité, Université de Rennes

Peut-on détecter automatiquement les contenus pédopornographiques en ligne sans ouvrir la voie à la surveillance de masse ?
Texte intégral (3012 mots)

Les contenus à caractère pédopornographique pullulent sur le net. Ils sont issus de la terrible exploitation d’enfants, et ce qui est montré constitue avant tout un crime réellement perpétré. Ils sont également dangereux pour les gens qui les voient, notamment les enfants.

Ces contenus criminels font donc l’objet de plus en plus de régulations et de détection automatisées. Mais comment concilier la protection des mineurs avec la préservation de la vie privée, la protection des données personnelles, et les libertés fondamentales — sans ouvrir la voie à une surveillance de masse ?


Certaines entreprises, comme Apple, Google et Meta, pratiquent déjà la détection de contenus pédopornographiques sur certains services (hormis les messageries chiffrées de bout en bout comme WhatsApp ou Signal). La France est particulièrement concernée, avec plus de 310 000 signalements reçus en 2023. Ces entreprises procèdent volontairement à ces détections grâce à une dérogation européenne à la directive ePrivacy.

Aujourd’hui, le Conseil de l’Europe envisage, dans sa proposition de régulation communément appelée ChatControl, de rendre obligatoire le scan des communications privées pour y détecter les contenus pédopornographiques — y compris sur les applications chiffrées de bout en bout.

En effet, bien que ces contenus soient illégaux, leur détection automatique ne fait pas encore l’objet d’une régulation. Mais une telle mesure généraliserait la surveillance : chaque média échangé par chaque citoyen devrait être scanné. Quelle est aujourd’hui l’efficacité de la détection de contenu à caractère pédocriminel et de leur signalement ?


À lire aussi : Peut-on détecter automatiquement les deepfakes ?


Lutte contre la criminalité et surveillance

Le chiffrement « de bout en bout » (de l’émetteur au récepteur) et sans accès possible aux données par les fournisseurs est de plus en plus populaire avec les applications comme WhatsApp, Signal ou iMessage.

Cependant, depuis 2010, les gouvernements réclament plus fermement l’affaiblissement du chiffrement, tandis que les experts en cybersécurité mettent en garde contre les risques de failles exploitables par des acteurs malveillants.

En effet, une fois les moyens techniques de surveillance instaurés, il est extrêmement difficile de s’assurer qu’ils ne seront pas, par exemple, exploités à des fins de répression politique. On l’a vu avec le logiciel espion Pegasus et, plus récemment, avec l’affaire TeleMessage, quand des membres du gouvernement américain pensaient utiliser une version sécurisée de Signal, alors que leurs communications étaient en fait accessibles quasi publiquement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Détection de contenus à caractère pédocriminel : comment ça marche, techniquement ?

On distingue deux types de contenus à caractère pédocriminel.

D’une part, les contenus déjà identifiés, qui représentent la grande majorité des contenus à caractère pédocriminel en ligne.

D’autre part, les contenus nouveaux, qu’ils soient réels ou générés par IA (et donc des « faux » à proprement parler, mais présentant quand même un caractère pédocriminel), qui sont très minoritaires en pratique aujourd’hui.

Pour identifier les contenus à caractère pédocriminel connus, on pourrait être tenté de les stocker dans une base de données qui servirait de base de comparaison. Cependant, un tel stockage est illégal dans la plupart des pays, et dangereux (car des personnes pourraient y être exposées).

C’est pour cela que les plates-formes – à qui incombe la responsabilité de scanner les contenus — stockent uniquement une « signature », et non les images elles-mêmes. Ces signatures sont générées par des « fonctions de hachage perceptuelles ».

Ces fonctions produisent des signatures similaires pour des contenus visuellement proches. Par exemple, une photo légèrement modifiée (en appliquant un filtre par exemple) conserve une signature proche de celle de la photo d’origine, alors que deux images différentes (un chien et un chat) donneront des signatures bien distinctes.

Les fonctions de hachage perceptuelles sont conçues pour donner une signature identique pour des images proches (même si un filtre est appliqué par exemple), et des signatures différentes pour des images différentes. Ceci permet de comparer les images soupçonnées d’être criminelles à une base de données de contenus criminels déjà connus et identifiés – sans être exposé aux images. Diane Leblanc-Albarel, Fourni par l'auteur

Ainsi, si une plate-forme veut détecter un contenu à caractère pédocriminel, elle calcule le « haché perceptuel » (la signature) de l’image et le compare aux signatures de contenus connus.

C’est le seul moyen de détection automatique qui existe aujourd’hui — les systèmes d’intelligence artificielle sont pour l’instant moins performants et nécessitent systématiquement une vérification humaine. Il est déjà utilisé à grande échelle, puisque les GAFAM utilisent ce système pour scanner uniquement les informations que les utilisateurs choisissent de partager sur les réseaux sociaux, Internet ou via des messageries non chiffrées de bout en bout.

Signalements de contenus à caractère pédocriminel

Si une correspondance est trouvée entre la signature d’une image d’un utilisateur et celle d’un contenu pédocriminel, l’image est signalée automatiquement au NCMEC (National Center for Missing and Exploited Children ou Centre national pour les enfants disparus et exploités), une organisation américaine à but non lucratif qui centralise et coordonne les signalements à l’échelle mondiale et agit comme un intermédiaire entre les plates-formes numériques, les forces de l’ordre et les autorités nationales. Les plates-formes peuvent également suspendre le compte de l’utilisateur.

En 2023, moins de 64 000 rapports automatiques, sur plus de 36 millions reçus par le NCMEC, ont été reconnus « urgents » par les autorités — soit 0,2 %.

Si aucun organisme n’a communiqué sur l’efficacité réelle des fonctions de hachage perceptuelles, il est établi qu’elles peuvent être attaquées avec succès et que le système de détection peut être mis en échec. Il est par exemple possible de modifier légèrement une image pour que sa signature corresponde à celle d’une image anodine, ce qui permettrait à des individus malveillants de faire passer un contenu dangereux pour anodin (faux négatifs).

Les fonctions de hachage perceptuelles génèrent aussi de nombreux faux positifs : des images différentes peuvent partager la même signature, ce qui pourrait mener à accuser à tort des centaines de milliers de citoyens.

Les fonctions de hachage peuvent générer des « faux positifs », c’est-à-dire attribuer la même signature à des images différentes. Fourni par l'auteur

Introduire des portes dérobées

Aujourd’hui, le Conseil de l’Union européenne souhaite rendre la détection obligatoire, y compris aux applications de messageries qui, pour la plupart, ne font pas encore de détection de contenus à caractère pédocriminel.

Or, pour détecter automatiquement des contenus illégaux, il faut y avoir accès… ce qui est compliqué puisqu’une grande part des communications passe par des messageries chiffrées « de bout en bout », c’est-à-dire pour lesquelles un tiers ne peut pas scanner les contenus échangés entre deux personnes.

Rendre la détection possible même sur des messageries chiffrées reviendrait à intégrer une porte dérobée dans le protocole de chiffrement afin de fournir l’accès aux données chiffrées à un tiers. Une telle porte dérobée représente une faille de cybersécurité — ce qui rend cette option inenvisageable en pratique.


À lire aussi : Confidentialité, géolocalisation : la 5G est-elle plus sûre que la 4G et la 3G ?


Scanner les photos directement sur les téléphones des utilisateurs

En pratique, ce que recommande donc aujourd’hui le Conseil de l’Union, sur la base d’un rapport technique de 2022 analysant les options disponibles (qui n’ont pas évolué depuis la publication du rapport), c’est de recourir au client-side scanning, c’est-à-dire scanner les photos directement sur les téléphones des utilisateurs.

Cela impliquerait un accès aux photos de tous les appareils en Europe, posant des risques majeurs : détection automatique de contenus légitimes (par exemple des photos d’enfants partagées avec un médecin) ou de nudes échangés volontairement entre adolescents.

De plus, cet accès pourrait permettre la consultation de tout ou partie des photos stockées sur téléphone, sans que les citoyens n’en soient informés, ce qui représenterait une atteinte potentielle à la vie privée, en contradiction avec la Convention européenne des droits de l’homme.

Enfin, l’efficacité limitée des fonctions actuelles pourrait entraîner de nombreux faux positifs, tout en laissant passer des contenus pédocriminels légèrement modifiés.


À lire aussi : Apple peut scanner vos photos pour lutter contre la pédocriminalité tout en protégeant votre vie privée – si la société tient ses promesses


Le « function creep » : le risque de détournement d’une technologie conçue pour un usage particulier

L’un des principaux dangers liés à l’affaiblissement du chiffrement est le phénomène du « function creep » : une technologie conçue pour un usage précis finit par dériver, au détriment des libertés.

L’histoire de la surveillance numérique montre que des outils mis en place sous couvert de sécurité ont régulièrement été réutilisés pour d’autres finalités, parfois abusives.

Un exemple emblématique est le programme de surveillance PRISM mis en place par la National Security Agency (NSA) des États-Unis. Ce programme illustre bien comment des outils de surveillance créés pour des motifs de sécurité nationale afin de lutter contre le terrorisme (notamment après les attentats du 11 septembre 2001) ont été utilisés pour collecter des données de masse, y compris sur des citoyens ordinaires et des alliés des États-Unis.

De façon semblable, dans un premier temps, les autorités pourraient justifier la nécessité d’un accès aux communications chiffrées par la lutte contre la pédocriminalité et le terrorisme, deux causes auxquelles l’opinion publique est particulièrement sensible. Mais une fois l’infrastructure technique en place, il pourrait devenir tentant d’élargir leur usage à d’autres types d’infractions : criminalité organisée, fraudes, voire délinquance économique.

Ainsi, un système conçu pour détecter des images pédopornographiques dans les messages chiffrés pourrait être détourné pour identifier des documents sensibles partagés par des journalistes d’investigation ou des opposants politiques, comme les affaires Pegasus et Telemessage l’ont montré récemment. Mais finalement, le plus grand problème de ces systèmes imposés à large échelle est simplement qu’ils seront facilement contournés par les criminels.


Le projet DIGISOV ANR-23-CE53-0009 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Aurélien Francillon a reçu des financements de la commission européenne via le projet ORSHIN (Horizon 101070008), l'ANR via le projet PEPR REV (ANR-22-PECY-0009 France 2030) et les entreprises Eviden et SAP.

Diane Leblanc-Albarel reçoit des financements du Fonds Wetenschappelijk Onderzoek (Fonds de recherche scientifique flamand, FWO).

Francesca Musiani reçoit des financements de l'Agence Nationale de la Recherche (projets ANR DIGISOV et ORA ClaimSov).

Pierrick Philippe a reçu des financements de CREACH LABS.

PDF

03.07.2025 à 16:33

PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?

Guy Royal, Professeur de chimie, en délégation au sein du Laboratoire EDYTEM de l'université Savoie Mont Blanc, Université Grenoble Alpes (UGA)

Micheline Draye, Professeure de Chimie à l'USMB, Université Savoie Mont Blanc

Nathalie Cottin, ingénieure chimiste, Université Savoie Mont Blanc

Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité. Capteurs portables et nouvelles méthodes sont nécessaires.
Texte intégral (2628 mots)

Les PFAS constituent une très grande famille de molécules dont certaines sont maintenant reconnues comme polluants éternels. Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité et pourrait être bien plus large, à condition d’améliorer les méthodes de mesure existantes et d’en développer de nouvelles, notamment en concevant des capteurs portables.


Les substances per- et polyfluoroalkylées, plus connues sous l’acronyme PFAS (on prononce « pifasse ») constituent une famille de plus de 12 000 molécules synthétiques. Ces composés contiennent des liaisons chimiques très fortes entre des atomes de Carbone et de Fluor, ce qui leur confère des propriétés remarquables.

En particulier, les PFAS peuvent posséder des propriétés antiadhésives, anti-frottements et déperlantes, associées à des stabilités chimiques et thermiques exceptionnelles. Pour ces raisons, les PFAS sont utilisés depuis les années 1950 dans de très nombreux produits de l’industrie (plasturgie, résines, peintures, mousses anti-incendie…) et de grande consommation (cosmétiques, textiles, emballages alimentaires…).

Malheureusement, certains PFAS sont aujourd’hui reconnus comme toxiques et nocifs pour la santé humaine et l’environnement. Leur grande stabilité chimique les rend difficilement (bio) dégradables et certains d’entre eux sont maintenant qualifiés de « polluants éternels ».

Il est donc nécessaire de limiter l’utilisation des PFAS et de résoudre les problèmes environnementaux et sanitaires dont ils sont responsables. C’est ainsi que des actions sont actuellement menées à l’échelle mondiale pour réglementer l’utilisation des PFAS, comprendre leurs effets sur la santé et l’environnement, mais aussi pour les remplacer, parvenir à décontaminer efficacement les sites pollués et aussi assurer leur suivi et leur surveillance.

Dans ce contexte, un point clé consiste à pouvoir détecter et quantifier efficacement les PFAS, que ce soit notamment dans l’environnement, l’eau de consommation et les eaux de rejets ou encore dans les milieux biologiques (fluides, organes…).

Malheureusement, le nombre considérable des substances per- et polyfluoroalkylées, la grande diversité de leurs propriétés et les faibles limites de détection à atteindre rendent leur surveillance et leur analyse extrêmement compliquées !

Deux exemples de PFAS particulièrement surveillés (PFOA et PFOS) — parmi la dizaine de milliers de composés PFAS existants. Guy Royal, Fourni par l'auteur

Comment analyse-t-on les PFAS ?

Plusieurs méthodes d’analyse des PFAS existent actuellement, mais la majorité des mesures est réalisée à l’aide d’une technique répondant au doux nom de « chromatographie liquide couplée à la spectrométrie de masse en tandem » (LC-MS/MS). Celle-ci permet de différentier, d’identifier et de quantifier les différents PFAS présents dans l’échantillon initial.

Cette technique d’analyse associe le pouvoir de séparation de la chromatographie en phase liquide aux capacités d’analyse de la spectrométrie de masse, hautement sensible et sélective.

schéma de principe
Principe de la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Guy Royal, Fourni par l'auteur

Cette technique, très utilisée notamment dans le domaine pharmaceutique et par les laboratoires d’analyse et de recherche, est extrêmement sensible et performante puisqu’elle permet d’analyser simultanément un grand nombre de molécules contenues dans des échantillons complexes avec des limites de détection très basses.

Toutefois, son utilisation est coûteuse et délicate à mettre en œuvre, car elle requiert l’utilisation d’un matériel de pointe et d’utilisateurs experts.

Avec cette technique, on ne peut détecter que ce que l’on recherche

De plus, il est nécessaire d’utiliser une colonne chromatographique adaptée aux molécules à analyser. Il faut également étalonner l’appareil, c’est-à-dire utiliser préalablement des échantillons de PFAS dont la composition en molécules et leurs concentrations sont connues afin de les reconnaître et de les quantifier lors de l’analyse.

Ainsi, on ne peut donc détecter que ce que l’on recherche : c’est pour cela que l’on parle d’« analyse ciblée ». Seule une gamme limitée de PFAS est ainsi détectée (quelques dizaines sont généralement recherchées), ce qui peut avoir pour effet de sous-estimer le total des PFAS présents dans un échantillon.

De surcroît, dans le cas spécifique des PFAS, ceux-ci peuvent se retrouver dans des matrices extrêmement variées pouvant être de l’eau (potable, naturelle, industrielle et/ou de rejet…), des sols et des boues, mais aussi des milieux biologiques tels que le sang ou les organes. Il est ainsi souvent nécessaire de procéder à un prétraitement de l’échantillon afin de le rendre compatible avec l’analyse.

Cette étape supplémentaire allonge significativement le temps nécessaire pour obtenir des résultats et en augmente le coût de chaque analyse pouvant représenter plusieurs centaines d’Euros. On comprend dès lors toute la complexité que revêt ce type d’analyse !

Enfin, la mesure des PFAS par chromatographie est réalisée exclusivement en laboratoire. Les échantillons doivent donc être transportés, ce qui rallonge le temps entre le prélèvement et le résultat d’analyse.

Pourra-t-on bientôt détecter les PFAS rapidement et sur site ?

Face aux enjeux actuels liés aux PFAS, une demande forte existe pour l’analyse in situ, en particulier des milieux environnementaux et des eaux de consommation, afin de détecter rapidement une éventuelle pollution et de permettre une intervention rapide et efficace.

À ce jour, il n’existe pas de test simple permettant de détecter des PFAS de manière rapide et directement sur le site à analyser (rivière, eau de rejet…). Il n’est pas non plus possible de mesurer en continu et de suivre la concentration de PFAS dans le temps.

Pour répondre à cette problématique, des recherches sont en cours à l’échelle mondiale afin de développer des capteurs simples permettant une détection rapide et à faible coût. L’objectif est notamment d’obtenir, de manière rapide et aisée, un signal — généralement électrique ou optique — indiquant la présence de PFAS dans un échantillon.

C’est dans ce contexte que le laboratoire EDYTEM de l’Université Savoie Mont-Blanc et l’entreprise grenobloise GRAPHEAL (start-up en essaimage du CNRS issue des travaux de recherche réalisés au sein de l’Institut Néel de Grenoble) travaillent conjointement au développement d’un capteur électronique à base de graphène.

Le graphène, dont les découvreurs ont été nobélisés en 2010, est un film moléculaire de carbone cristallin à deux dimensions et de l’épaisseur d’un simple atome. Son empilement constitue le graphite, et il est doté de propriétés électriques exceptionnelles car les électrons, forcés de circuler sur la surface du film en raison de son épaisseur ultimement fine, interagissent fortement avec les éléments adsorbés sur le graphène.

photo et schéma de principe
Une photo des capteurs de molécules développés par Grapheal, avec une illustration de leur principe : la présence de molécules entre la source et le drain affecte le courant électrique qui circule dans le dispositif, ce que l’on peut mesurer. Grapheal, Fourni par l'auteur

Le principe du dispositif visé, de type transistor, repose sur la connexion d’un plan de graphène à deux électrodes, le matériau graphène étant recouvert d’un film moléculaire capable d’interagir sélectivement avec une ou plusieurs molécules de type PFAS présentes dans l’échantillon à doser. Cette interaction à l’échelle moléculaire entraîne une modification de la tension entre les deux électrodes. L’amplitude de cette modification étant liée à la concentration de molécules PFAS présentes dans l’échantillon, il est alors possible de quantifier ces dernières.

Le développement d’une telle technique représente un véritable défi scientifique car il s’agit de mesurer l’équivalent d’une goutte d’eau dans un volume équivalent à trois piscines olympiques ! Il est aussi nécessaire d’explorer un vaste panel de molécules PFAS et de conditions expérimentales puisque les PFAS peuvent être présents dans des échantillons très divers qui vont de l’eau potable aux eaux de rejets.

À ce jour, ces dispositifs permettent de détecter différents types de PFAS actuellement surveillés, dont des PFAS ayant des chaînes fluorées longues (plus de 5 atomes de carbone) et courtes. Notre seuil de détection atteint actuellement 40 nanogrammes par litre pour le PFOA, qui est un des PFAS les plus couramment rencontrés à l’état de traces dans l’environnement.

Des techniques de préparation permettant de concentrer les PFAS dans le prélèvement pourraient encore améliorer ce seuil.

En cas de succès, ces capteurs permettront de réaliser des tests rapides, peu coûteux et utilisables directement sur site. À l’image des autotests Covid qui sont complémentaires des analyses PCR, ces capteurs électroniques à base de graphène — tout comme d’autres dispositifs d’analyse rapide, tels que des capteurs reposant sur un changement de coloration — viendront en complément des méthodes chromatographiques. Ils permettront d’obtenir davantage de résultats préliminaires, facilitant ainsi une surveillance accrue et mieux adaptée aux enjeux actuels liés au PFAS.

The Conversation

Guy Royal, professeur à l'Université Grenoble Alpes, développe sa thématique de recherche dédiée aux PFAS au sein du laboratoire EDYTEM de l'Université Savoie Mont Blanc dans le cadre d'une délégation.

Micheline Draye a reçu des financements de l'ANR projet ANR-23-LCV2-0008-01.

ingénieure chimiste

PDF

03.07.2025 à 14:42

Nouvelles images de la galaxie du Sculpteur : mille et une couleurs à 11 millions d’années-lumière de la Terre

Eric Emsellem, Astrophysicien, Observatoire Européen Austral

Une nouvelle étude a permis de couvrir presque totalement la galaxie dite du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé.
Texte intégral (1431 mots)
La galaxie du Sculpteur est imagée en grand détail par l'instrument MUSE du VLT de l'Observatoire européen austral, au Chili. ESO/E. Congiu et al., CC BY

Une nouvelle étude a permis de couvrir presque totalement la galaxie du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé, et dans de très nombreuses couleurs. Ces informations, libres d'accès, permettent d'avancer dans notre compréhension de la formation des étoiles.


Une collaboration internationale d'astronomes, dont je fais partie, vient de rendre publique une des plus grandes mosaïques multicouleur d'une galaxie emblématique de l'Univers proche, la galaxie spirale du Sculpteur, ou NGC 253.

En seulement quelques nuits d'observations, nous avons pu couvrir la quasi-totalité de la surface apparente de cette galaxie de 65 000 années-lumière de large, avec un niveau de détail inégalé, grâce à un instrument unique, MUSE, attaché au Very Large Telescope de l'Observatoire européen austral (ESO).

Ces images permettent de voir à la fois les petites et les grandes échelles de cette galaxie située à 11 millions d'années-lumière de la nôtre. En d'autres termes, on peut zoomer et dézoomer à l'envi, ce qui ouvre la porte à de nouvelles découvertes, et à une compréhension approfondie du processus de formation des étoiles.

Un des Graals de l'astrophysique moderne : comprendre la formation des étoiles

Voici ce que l'on sait déjà. Pour former des étoiles, du gaz interstellaire est comprimé et de petits grumeaux s'effondrent : des étoiles naissent, vivent, et certaines étoiles finissent leurs vies dans une explosion qui disperse de nouveaux atomes et molécules dans le milieu interstellaire environnant — ce qui procure une partie du matériel nécessaire à la prochaine génération d'étoiles.

La galaxie du Sculpteur vue par le VLT : les étoiles déjà présentes en gris, auxquelles se surimposent les pouponnières d'étoiles en rose. Source : ESO.

Ce que l'on comprend beaucoup moins bien, c'est de quelle façon les grandes structures du disque galactique comme les spirales, les filaments ou les barres évoluent dans le temps et promeuvent (ou inhibent) ce processus de formation d'étoiles.

Pour comprendre ces processus, il faut étudier de nombreuses échelles à la fois.

En premier lieu, des échelles spatiales : les grandes structures elles-mêmes (spirales, filaments, barres font plusieurs milliers d'années-lumière), les régions denses de gaz appelées « pouponnières d'étoiles » (qui ne font « que » quelques années-lumière)… et une vision globale et cohérente de la galaxie hôte (jusqu'à des dizaines de milliers d'années-lumière de rayon).


À lire aussi : Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1


De plus, ces processus ont lieu sur des durées totalement différentes les unes des autres : les étoiles massives explosent au bout de quelques millions d'années, alors que les structures dynamiques comme les spirales évoluent sur des centaines de millions d'années.

De nombreuses études ont permis, dans les quinze dernières années, une cartographie de galaxies voisines à l'aide d'imageurs très performants au sol et dans l'espace.

Mais les différents acteurs de ces processus complexes (par exemple le gaz interstellaire, les étoiles jeunes ou vieilles, naines ou massives, la poussière) émettent de la lumière de manière spécifique. Certains par exemple n'émettent que certaines couleurs, d'autres un large domaine de longueur d'onde.

Ainsi, seule la spectroscopie — qui distingue les différentes couleurs de la lumière — permet d'extraire simultanément des informations telles que la composition des étoiles, l'abondance des différents atomes dans le gaz interstellaire, le mouvement du gaz et des étoiles, leur température, etc.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l'actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd'hui !


L'avancée de l'ESO et de son instrument MUSE

C'est pourquoi cette étude dirigée par Enrico Congiu, un astronome de l'ESO, est si pertinente et excitante pour la communauté scientifique.

En rassemblant plus de 100 champs de vue, et quelques 9 millions de spectres obtenus avec le spectrographe MUSE au VLT, Enrico Congiu et son équipe, dont j'ai la chance de faire parti, ont pu sonder simultanément et pour la première fois l'ensemble de la galaxie mais aussi les différentes régions de formation stellaire individuellement dans leur environnement spécifique (dans les bras des spirales, au sein de la barre ou vers le centre), apportant des mesures robustes de leur composition et de leur dynamique.

La galaxie du Sculpteur vue dans différentes couleurs grâce au spectrographe MUSE : les éclats correspondent à des éléments chimiques abondants, comme l'hydrogène, qui émettent à des longueurs d'onde spécifiques. Source : ESO.

L'équipe d'astronomes en a profité pour découvrir plusieurs centaines de nébuleuses planétaires — vingt fois plus que ce qui était connu jusque-là. Ces données nous donnent simultanément des indications sur l'histoire de formation stellaire de la galaxie. Par exemple, elles vont permettre d'identifier et de caractériser en détail presque 2500 régions de formation stellaire, la plus grande base de données spectroscopiques pour une seule galaxie (article en préparation).

Mais c'est aussi une opportunité unique de tester la mesure de la distance à cette galaxie.

En effet, le nombre relatif de nébuleuses planétaires brillantes et moins brillantes au sein d'une même galaxie est un levier puissant pour déterminer la distance de cette galaxie. L'équipe internationale a ainsi montré que la méthode basée sur les nébuleuses planétaires était certainement entachée d'erreur si l'on ignore l'impact de l'extinction due à la poussière présente dans la galaxie.

Exploiter librement les données de MUSE pour démultiplier le potentiel de découverte

Ces magnifiques données calibrées et documentées de NGC 253 sont le fruit d'un travail important de la collaboration menée par Enrico Congiu, qui a décidé de les rendre publiques. Au-delà des études présentes et futures conduites par cette équipe, c'est donc la communauté astronomique mondiale (et n'importe quel astronome amateur !) qui peut aujourd'hui librement exploiter le cube de données spectroscopique MUSE.

Cet aspect « Science ouverte » est une composante primordiale de la science moderne, permettant à d'autres équipes de reproduire, tester et étendre le travail effectué, et d'appliquer de nouvelles approches, à la fois créatives et rigoureuses scientifiquement, pour sonder ce magnifique héritage de la science et de la technologie.

The Conversation

Eric Emsellem a reçu des financements de la Fondation Allemande pour la Recherche (DFG) pour par exemple l'emploi d'etudiants. Il travaille pour l'ESO (Observatoire Europeen Austral) et est en détachement de l'Observatoire de Lyon qui a mené la construction de l'instrument MUSE. Il fait parti de la collaboration internationale PHANGS et est un co-auteur de l'étude menée par Enrico Congiu.

PDF

02.07.2025 à 18:38

Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ?

Bastien Fayet, Doctorant en géographie - UMR 6590 ESO, Université d’Angers

Le Palais de la découverte, fermé depuis 4 ans, pourrait ne jamais rouvrir. Un symbole fort des fragilités de la culture scientifique en France.
Texte intégral (2419 mots)
La mythique cage de Faraday du Palais de la découverte a permis à des milliers d'enfants de comprendre les principes de la conductivité électrique, en toute sécurité N Krief EPPDCSI, CC BY-ND

Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.


Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?

Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.

En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.

Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.

Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.

Un symbole de l’évolution de la culture scientifique

Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.

Le Palais de la découverte, depuis 1937 temple de la vulgarisation scientifique.

Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :

« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».

Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.

Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.

Ainsi, le Palais propose dans ces années des expositions itinérantes - traduisant la volonté d’aller au-delà des murs du musée - des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.

En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.

Expérience démontrant le principe de l'électrostatisme au Palais de la découverte
Expérience démontrant le principe de l'électrostatisme au Palais de la découverte. A Robin EPPDCSI, CC BY-ND

La diversité de la culture scientifique en France

Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.

L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.

Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants - sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Culture scientifique et justice sociale : mission impossible

Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).

Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.

Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.

Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.

Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.

La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France

The Conversation

Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.06.2025 à 08:30

Mais pourquoi certains requins « freezent » lorsqu’on les retourne ?

Jodie L. Rummer, Professor of Marine Biology, James Cook University

Joel Gayford, PhD Candidate, Department of Marine Biology, James Cook University

Plutôt qu’une stratégie de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un simple « bagage évolutif ».
Texte intégral (1419 mots)
Lorsqu’on retourne certains requins, ils se figent totalement. Rachel Moore

Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.

Mais que se passe-t-il quand un requin agit ainsi ?

Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.

Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?

Le mystère du « requin figé »

Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.

Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.

Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.

Alors, pourquoi certains requins se figent-ils ?

Des requins et d’autres poissons nagent au-dessus d’un récif corallien
Chez les requins, l’immobilité tonique est déclenchée lorsqu’on les retourne sur le dos. Rachel Moore

Trois hypothèses principales

Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :

  1. Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.

  2. Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.

  3. Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.

Mais nos résultats ne confirment aucune de ces explications.

Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.

Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.

Une affaire de bagage évolutif

Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.

En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?

Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.

Que faut-il en conclure ?

Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.

Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.

Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.

The Conversation

Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.

Joel Gayford reçoit des financements du Northcote Trust.

PDF

25.06.2025 à 17:04

IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions

Mônica Macedo-Rouet, Professeure des universités en psychologie de l'éducation, CY Cergy Paris Université

Lorsque l’on demande conseil à ChatGPT, il est nécessaire de vérifier que les informations correspondent à celles de l’article original.
Texte intégral (2358 mots)
Utiliser l’IA pour ses études, mais intelligemment. Franco Alva/Unsplash, CC BY

La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.

Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.


Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.

En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.

Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.

Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.

D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?

Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA

L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.

Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.

Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.

Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.

L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle

Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.

À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.

Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.


À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.

Ne pas citer ses sources (correctement) est passible de sanctions

Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 :

« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »

Cependant, la même réponse précise que :

« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »

Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.

En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.

Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.

Une première piste : améliorer la détection des textes produits par l’IA

Une première piste serait d’améliorer la détection des textes produits par l’IA.

Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.


À lire aussi : Peut-on détecter automatiquement les deepfakes ?


C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.

Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.

Former – toujours former ! – à l’évaluation des sources d’information

Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.

L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.

Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.

The Conversation

Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

25.06.2025 à 12:10

Pourquoi la musique sonne-t-elle juste ou faux ?

Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d'ondes acoustiques et de la physique des instruments de musique, Le Mans Université

La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
Texte intégral (1217 mots)

Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.


S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.

Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.

Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.

La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La musique, une affaire de physiciens ?

À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).

Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.

Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.

Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.

Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.

Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.

Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s'explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.

Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.

Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.

Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !

The Conversation

Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

25.06.2025 à 12:09

Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac

Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse

Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, Guillaume Cabanac traque les fraudes scientifiques.
Texte intégral (3332 mots)
Guillaume Cabanac a été distingué par la revue _Nature_ comme l’un des dix scientifiques de l’année 2021. DCCE, Université de Toulouse, Fourni par l'auteur

Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l'a rencontré.


The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?

Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.

Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.

Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !

Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…

G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.

Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.

De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.

Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».

Ceci questionne la qualité de l’évaluation par les pairs. C’est ce qui a vraiment scandalisé la communauté scientifique et a discrédité ces maisons d’édition qui ont dû reconnaître les faits.

Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.

Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.

Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.


À lire aussi : Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches


Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?

G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.

Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?

G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.

Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.

Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.

Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.

Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?

G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.

Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.

Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.

Comment expliquer qu’une publication scientifique puisse contenir autant de citations d’articles rétractés ?

G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.

L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.

Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?

G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.

Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».

Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.

En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?

G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.

Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.

The Conversation

Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l'Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.

PDF

25.06.2025 à 12:09

Comment comprendre ce qu’il se passe à l’intérieur du Soleil ?

Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège

Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?
Texte intégral (2229 mots)

Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?


Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.

Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).

Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.

Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La crise des modèles solaires

Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).

Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.

Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.

La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.

L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.

L’importance de la physique fondamentale en physique solaire

Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.

Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.

Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.

Le Soleil comme laboratoire de physique

Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.

La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.

Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.

Z Pulsed Power Facility : l’installation des Sandia National Laboratories qui effectuent des mesures d’opacité en conditions solaires. Sandia National Laboratories

Du Soleil aux étoiles

L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.

Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.

Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.

The Conversation

Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓