URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

07.07.2025 à 19:40

5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine

Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)
Une très récente étude dévoile la grande histoire des chiens en Amérique latine. Pourquoi sont-ils arrivés si tardivement sur ce continent et comment la colonisation a-t-elle bouleversé leur évolution ?
Texte intégral (2839 mots)
On retrouve la trace d'un lien direct avec les chiens du Mexique ancien uniquement chez les chihuahuas. Nic Berlin / Unsplash, CC BY

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. En mettant au jour de nombreux fossiles, les scientifiques ont montré une arrivée très tardive sur ce continent par rapport aux autres et une évolution bouleversée par la colonisation européenne.


Parmi tous les animaux élevés et domestiqués par l’humain, le chien est celui avec lequel nous partageons la plus longue relation, avec des indices de soins et d’inhumation volontaire remontant au moins à 14 000 ans. Mais s’il existe un lien avéré entre les sociétés de chasseurs-cueilleurs du début de l’Holocène, il y a moins de 12 000 ans, et les chiens dans de nombreuses régions du monde, il en est d’autres où ils arrivent bien plus tard.

C’est le cas notamment de l’Amérique centrale et de l’Amérique du Sud, où les plus anciens squelettes de chiens ne datent que d’il y a 5000 à 5500 ans. Or on trouve déjà des chiens en Amérique du Nord il y a près de 10 000 ans en Alaska et plus de 8000 ans dans l’Illinois. Pourquoi observe-t-on un tel décalage ? C’est pour aborder cette question que notre équipe internationale et interdisciplinaire, rassemblant des archéozoologues, des archéologues et des paléogénéticiens, a rassemblé des restes de chiens archéologiques pour analyser les lignées représentées et leurs dynamiques. Nous venons de publier nos résultats dans la revue scientifique Proceedings of the Royal Society B : Biological Science.

Nous avons mis en évidence une diversification génétique des chiens il y a environ 7000 à 5000 ans, qui correspond au développement de l’agriculture et aux transferts de plantes entre les différentes régions, en particulier le maïs.

D’autre part, nos travaux montrent que les lignées présentes aujourd’hui en Amérique sont pour l’essentiel très différentes de celles qui étaient présentes avant la colonisation européenne, il y a 500 ans. Ces dernières descendent de chiens venant d’Europe, d’Asie ou d’Afrique, apportés par le commerce trans-océanique. Ce n’est que chez certains chihuahuas que l’on retrouve la trace d’un lien direct avec les chiens du Mexique ancien.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une quarantaine de sites archéologiques analysés

Avec le développement des analyses paléogénétiques (l’analyse de l’ADN ancien), aborder les questionnements archéologiques demande d’associer des chercheurs aux profils variés et c’est ce que notre projet de recherche a permis. Pour étudier l’origine et les dynamiques des populations de chiens en Amérique centrale et du Sud, il nous a fallu identifier et rassembler des squelettes issus de 44 sites archéologiques, qui s’étendent du centre du Mexique au nord de l’Argentine.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Nous avons travaillé sur des fouilles récentes, nous permettant d’avoir un maximum d’informations sur les contextes d’où venaient les chiens, mais aussi sur la réanalyse de collections anciennes dans lesquelles des restes de canidés avaient été trouvés. Confirmer l’identification de ces chiens a également été un défi : en Amérique du Sud en particulier, il existe de nombreux canidés dont la taille et la morphologie sont proches de celles du chien : renards, loup à crinière, chien des buissons… Il s’agit d’ailleurs d’animaux qui ont pu être proches des groupes humains, jusqu’à être inhumés. C’est donc l’utilisation d’analyses morphologiques fines qui nous ont permis de sélectionner les os et les dents analysés. Nous avons extrait l’ADN de 123 chiens (dont les poils de 12 chiens modernes, pour nous servir de référentiels) dans des laboratoires spécialisés en France, au Muséum national d’histoire naturelle, et au Royaume-Uni, à l’Université d’Oxford.

Le séquençage de cet ADN s’est fait en deux étapes. Nous avons d’abord étudié l’ensemble des fragments d’ADN disponibles qui nous ont permis de confirmer qu’il s’agissait bien de chiens et pas d’autres canidés sauvages. Les critères morphologiques que nous avions utilisés sont donc confirmés. Mais, dans la plupart des cas, le génome de ces chiens n’était pas assez bien couvert par le séquençage pour en dire plus : il s’agit d’une des conséquences de la dégradation de l’ADN, à la mort d’un individu, qui se fragmente intensément et, comme un puzzle aux pièces minuscules, il devient difficile de reconstituer un génome complet.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou. Nicolas Goepfert, Fourni par l'auteur

Quand l’ADN mitochondrial révèle ses secrets

Dans un second temps, nous avons réalisé une capture de l’ADN mitochondrial pour filtrer les fragments d’ADN contenus dans les échantillons et garder préférentiellement ceux qui se rapportent au génome mitochondrial. En effet, il existe deux sortes d’ADN dans les cellules : l’ADN nucléaire, contenu dans le noyau de chaque cellule, qui provient pour moitié du père et pour moitié de la mère de chaque chien ; et l’ADN mitochondrial, contenu dans les mitochondries de chaque cellule, et qui, au moment de la fécondation, font partie l’ovule. C’est donc un ADN transmis exclusivement par la mère de chaque chien. Or l’ADN mitochondrial est très court (un peu moins de 17 000 paires de bases, contre 2,5 milliards de paires de bases pour l’ADN nucléaire du chien) et il est présent en multiples exemplaires dans chaque mitochondrie. C’est donc un ADN plus facile d’accès pour la paléogénomique.

Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial
Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial. Aurélie Manin, Fourni par l'auteur

Nous avons obtenu suffisamment de fragments d’ADN mitochondrial pour reconstituer les lignées maternelles de 70 individus (8 chiens modernes et 62 chiens archéologiques) et les analyser au moyen d’outils phylogénétiques, c’est-à-dire permettant de reconstituer les liens de parenté entre les chiens. Les arbres phylogénétiques que nous avons pu reconstituer nous ont permis de confirmer que l’ensemble des chiens américains de la période pré-contact (c’est-à-dire avant les colonisations européennes de l’Amérique il y a 500 ans) ont un ADN mitochondrial se rapportant à une seule lignée, traduisant bien l’arrivée du chien en Amérique au cours d’une seule vague de migration.

Néanmoins, nos travaux permettent de préciser que l’ensemble des chiens d’Amérique centrale et du Sud se distinguent des chiens d’Amérique du Nord (Canada et États-Unis actuels) dont ils se séparent il y a environ 7000 à 5000 ans. Cet âge, qui correspond au dernier ancêtre commun à tous les chiens d’Amérique centrale et du Sud, coïncide avec le développement des sociétés agraires, une période pendant laquelle on observe de nombreux mouvements de plantes entre les régions, et notamment celui du maïs, domestiqué au Mexique, qui arrive en Amérique du Sud il y a environ 7000 ans. La structure des lignées maternelles suggère par ailleurs que la diffusion des chiens s’est faite de manière progressive, de proche en proche : les chiens les plus proches géographiquement sont aussi les plus proches génétiquement. Ce principe d’isolement génétique par la distance s’applique normalement plus aux animaux sauvages qu’aux animaux domestiques, dont les mouvements sont avant tout marqués par la volonté humaine qui induit un brassage au gré des échanges culturels. Nous nous sommes interrogés sur les mécanismes de diffusion des chiens en Amérique, suggérant une dispersion relativement libre, liée aux changements d’activités de subsistance et à l’augmentation du stockage des ressources, qui peut avoir contribué à attirer des chiens féraux (vivant à l’état sauvage).

Un chihuahua descendant des chiens précoloniaux

Aujourd’hui, on ne retrouve presque plus trace de ces lignées et leur structuration en Amérique. Un des chiens de notre étude, issu du village indigène de Torata Alta, dans les Andes Centrales, et daté d’avant 1600 de notre ère, possède un ADN maternel d’origine eurasiatique. Les Européens arrivent dans la région en 1532, certainement accompagnés de chiens, et cet individu nous montre que leur lignée s’est rapidement intégrée dans l’entourage des populations locales. C’est le seul animal issu d’un contexte colonial inclus dans notre étude et on ne dispose pas de plus d’informations permettant d’expliquer les mécanismes ayant mené à la diversité génétique des chiens observée aujourd’hui. Quoi qu’il en soit, parmi les chiens de race moderne dont on connaît le génome mitochondrial, un chihuahua porte un génome dont la lignée maternelle remonte aux chiens ayant vécu au Mexique à la période pré-contact. Un indice qui vient corroborer les sources concernant l’histoire de cette race, dont les premiers représentants auraient été acquis au Mexique dans la seconde moitié du XIXe siècle.

Ce travail interdisciplinaire nous a permis de mieux comprendre la diffusion et l’origine des populations de chiens en Amérique centrale et du Sud. Néanmoins, il ne porte que sur l’ADN mitochondrial, et donc sur l’évolution des lignées maternelles. L’analyse du génome nucléaire pourrait révéler d’autres facettes de l’histoire des chiens en Amérique que de futurs travaux permettront de développer.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Aurélie Manin a reçu des financements du NERC (Natural Environment Research Council) au Royaume-Uni pendant la réalisation de cette étude.

06.07.2025 à 09:40

Détecter les contenus pédocriminels en ligne : quelles options techniques ? Quels risques pour la vie privée ?

Aurélien Francillon, Professeur en sécurité informatique, EURECOM, Institut Mines-Télécom (IMT)
Diane Leblanc-Albarel, Postdoctoral research associate, KU Leuven
Francesca Musiani, Directrice de recherche au CNRS, Directrice du Centre Internet et Société (CIS), associée à Mines Paris - PSL, Mines Paris - PSL
Pierrick Philippe, Doctorant en Cybersécurité, Université de Rennes
Peut-on détecter automatiquement les contenus pédopornographiques en ligne sans ouvrir la voie à la surveillance de masse ?
Texte intégral (3014 mots)

Les contenus à caractère pédopornographique pullulent sur le net. Ils sont issus de la terrible exploitation d’enfants, et ce qui est montré constitue avant tout un crime réellement perpétré. Ils sont également dangereux pour les gens qui les voient, notamment les enfants.

Ces contenus criminels font donc l’objet de plus en plus de régulations et de détection automatisées. Mais comment concilier la protection des mineurs avec la préservation de la vie privée, la protection des données personnelles, et les libertés fondamentales — sans ouvrir la voie à une surveillance de masse ?


Certaines entreprises, comme Apple, Google et Meta, pratiquent déjà la détection de contenus pédopornographiques sur certains services (hormis les messageries chiffrées de bout en bout comme WhatsApp ou Signal). La France est particulièrement concernée, avec plus de 310 000 signalements reçus en 2023. Ces entreprises procèdent volontairement à ces détections grâce à une dérogation européenne à la directive ePrivacy.

Aujourd’hui, le Conseil de l’Europe envisage, dans sa proposition de régulation communément appelée ChatControl, de rendre obligatoire le scan des communications privées pour y détecter les contenus pédopornographiques — y compris sur les applications chiffrées de bout en bout.

En effet, bien que ces contenus soient illégaux, leur détection automatique ne fait pas encore l’objet d’une régulation. Mais une telle mesure généraliserait la surveillance : chaque média échangé par chaque citoyen devrait être scanné. Quelle est aujourd’hui l’efficacité de la détection de contenu à caractère pédocriminel et de leur signalement ?


À lire aussi : Peut-on détecter automatiquement les deepfakes ?


Lutte contre la criminalité et surveillance

Le chiffrement « de bout en bout » (de l’émetteur au récepteur) et sans accès possible aux données par les fournisseurs est de plus en plus populaire avec les applications comme WhatsApp, Signal ou iMessage.

Cependant, depuis 2010, les gouvernements réclament plus fermement l’affaiblissement du chiffrement, tandis que les experts en cybersécurité mettent en garde contre les risques de failles exploitables par des acteurs malveillants.

En effet, une fois les moyens techniques de surveillance instaurés, il est extrêmement difficile de s’assurer qu’ils ne seront pas, par exemple, exploités à des fins de répression politique. On l’a vu avec le logiciel espion Pegasus et, plus récemment, avec l’affaire TeleMessage, quand des membres du gouvernement américain pensaient utiliser une version sécurisée de Signal, alors que leurs communications étaient en fait accessibles quasi publiquement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Détection de contenus à caractère pédocriminel : comment ça marche, techniquement ?

On distingue deux types de contenus à caractère pédocriminel.

D’une part, les contenus déjà identifiés, qui représentent la grande majorité des contenus à caractère pédocriminel en ligne.

D’autre part, les contenus nouveaux, qu’ils soient réels ou générés par IA (et donc des « faux » à proprement parler, mais présentant quand même un caractère pédocriminel), qui sont très minoritaires en pratique aujourd’hui.

Pour identifier les contenus à caractère pédocriminel connus, on pourrait être tenté de les stocker dans une base de données qui servirait de base de comparaison. Cependant, un tel stockage est illégal dans la plupart des pays, et dangereux (car des personnes pourraient y être exposées).

C’est pour cela que les plates-formes – à qui incombe la responsabilité de scanner les contenus — stockent uniquement une « signature », et non les images elles-mêmes. Ces signatures sont générées par des « fonctions de hachage perceptuelles ».

Ces fonctions produisent des signatures similaires pour des contenus visuellement proches. Par exemple, une photo légèrement modifiée (en appliquant un filtre par exemple) conserve une signature proche de celle de la photo d’origine, alors que deux images différentes (un chien et un chat) donneront des signatures bien distinctes.

Les fonctions de hachage perceptuelles sont conçues pour donner une signature identique pour des images proches (même si un filtre est appliqué par exemple), et des signatures différentes pour des images différentes. Ceci permet de comparer les images soupçonnées d’être criminelles à une base de données de contenus criminels déjà connus et identifiés – sans être exposé aux images. Diane Leblanc-Albarel, Fourni par l'auteur

Ainsi, si une plate-forme veut détecter un contenu à caractère pédocriminel, elle calcule le « haché perceptuel » (la signature) de l’image et le compare aux signatures de contenus connus.

C’est le seul moyen de détection automatique qui existe aujourd’hui — les systèmes d’intelligence artificielle sont pour l’instant moins performants et nécessitent systématiquement une vérification humaine. Il est déjà utilisé à grande échelle, puisque les GAFAM utilisent ce système pour scanner uniquement les informations que les utilisateurs choisissent de partager sur les réseaux sociaux, Internet ou via des messageries non chiffrées de bout en bout.

Signalements de contenus à caractère pédocriminel

Si une correspondance est trouvée entre la signature d’une image d’un utilisateur et celle d’un contenu pédocriminel, l’image est signalée automatiquement au NCMEC (National Center for Missing and Exploited Children ou Centre national pour les enfants disparus et exploités), une organisation américaine à but non lucratif qui centralise et coordonne les signalements à l’échelle mondiale et agit comme un intermédiaire entre les plates-formes numériques, les forces de l’ordre et les autorités nationales. Les plates-formes peuvent également suspendre le compte de l’utilisateur.

En 2023, moins de 64 000 rapports automatiques, sur plus de 36 millions reçus par le NCMEC, ont été reconnus « urgents » par les autorités — soit 0,2 %.

Si aucun organisme n’a communiqué sur l’efficacité réelle des fonctions de hachage perceptuelles, il est établi qu’elles peuvent être attaquées avec succès et que le système de détection peut être mis en échec. Il est par exemple possible de modifier légèrement une image pour que sa signature corresponde à celle d’une image anodine, ce qui permettrait à des individus malveillants de faire passer un contenu dangereux pour anodin (faux négatifs).

Les fonctions de hachage perceptuelles génèrent aussi de nombreux faux positifs : des images différentes peuvent partager la même signature, ce qui pourrait mener à accuser à tort des centaines de milliers de citoyens.

Les fonctions de hachage peuvent générer des « faux positifs », c’est-à-dire attribuer la même signature à des images différentes. Fourni par l'auteur

Introduire des portes dérobées

Aujourd’hui, le Conseil de l’Union européenne souhaite rendre la détection obligatoire, y compris aux applications de messageries qui, pour la plupart, ne font pas encore de détection de contenus à caractère pédocriminel.

Or, pour détecter automatiquement des contenus illégaux, il faut y avoir accès… ce qui est compliqué puisqu’une grande part des communications passe par des messageries chiffrées « de bout en bout », c’est-à-dire pour lesquelles un tiers ne peut pas scanner les contenus échangés entre deux personnes.

Rendre la détection possible même sur des messageries chiffrées reviendrait à intégrer une porte dérobée dans le protocole de chiffrement afin de fournir l’accès aux données chiffrées à un tiers. Une telle porte dérobée représente une faille de cybersécurité — ce qui rend cette option inenvisageable en pratique.


À lire aussi : Confidentialité, géolocalisation : la 5G est-elle plus sûre que la 4G et la 3G ?


Scanner les photos directement sur les téléphones des utilisateurs

En pratique, ce que recommande donc aujourd’hui le Conseil de l’Union, sur la base d’un rapport technique de 2022 analysant les options disponibles (qui n’ont pas évolué depuis la publication du rapport), c’est de recourir au client-side scanning, c’est-à-dire scanner les photos directement sur les téléphones des utilisateurs.

Cela impliquerait un accès aux photos de tous les appareils en Europe, posant des risques majeurs : détection automatique de contenus légitimes (par exemple des photos d’enfants partagées avec un médecin) ou de nudes échangés volontairement entre adolescents.

De plus, cet accès pourrait permettre la consultation de tout ou partie des photos stockées sur téléphone, sans que les citoyens n’en soient informés, ce qui représenterait une atteinte potentielle à la vie privée, en contradiction avec la Convention européenne des droits de l’homme.

Enfin, l’efficacité limitée des fonctions actuelles pourrait entraîner de nombreux faux positifs, tout en laissant passer des contenus pédocriminels légèrement modifiés.


À lire aussi : Apple peut scanner vos photos pour lutter contre la pédocriminalité tout en protégeant votre vie privée – si la société tient ses promesses


Le « function creep » : le risque de détournement d’une technologie conçue pour un usage particulier

L’un des principaux dangers liés à l’affaiblissement du chiffrement est le phénomène du « function creep » : une technologie conçue pour un usage précis finit par dériver, au détriment des libertés.

L’histoire de la surveillance numérique montre que des outils mis en place sous couvert de sécurité ont régulièrement été réutilisés pour d’autres finalités, parfois abusives.

Un exemple emblématique est le programme de surveillance PRISM mis en place par la National Security Agency (NSA) des États-Unis. Ce programme illustre bien comment des outils de surveillance créés pour des motifs de sécurité nationale afin de lutter contre le terrorisme (notamment après les attentats du 11 septembre 2001) ont été utilisés pour collecter des données de masse, y compris sur des citoyens ordinaires et des alliés des États-Unis.

De façon semblable, dans un premier temps, les autorités pourraient justifier la nécessité d’un accès aux communications chiffrées par la lutte contre la pédocriminalité et le terrorisme, deux causes auxquelles l’opinion publique est particulièrement sensible. Mais une fois l’infrastructure technique en place, il pourrait devenir tentant d’élargir leur usage à d’autres types d’infractions : criminalité organisée, fraudes, voire délinquance économique.

Ainsi, un système conçu pour détecter des images pédopornographiques dans les messages chiffrés pourrait être détourné pour identifier des documents sensibles partagés par des journalistes d’investigation ou des opposants politiques, comme les affaires Pegasus et Telemessage l’ont montré récemment. Mais finalement, le plus grand problème de ces systèmes imposés à large échelle est simplement qu’ils seront facilement contournés par les criminels.


Le projet DIGISOV ANR-23-CE53-0009 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Aurélien Francillon a reçu des financements de la commission européenne via le projet ORSHIN (Horizon 101070008), l'ANR via le projet PEPR REV (ANR-22-PECY-0009 France 2030) et les entreprises Eviden et SAP.

Diane Leblanc-Albarel reçoit des financements du Fonds Wetenschappelijk Onderzoek (Fonds de recherche scientifique flamand, FWO).

Francesca Musiani reçoit des financements de l'Agence Nationale de la Recherche (projets ANR DIGISOV et ORA ClaimSov).

Pierrick Philippe a reçu des financements de CREACH LABS.

03.07.2025 à 16:33

PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?

Guy Royal, Professeur de chimie, en délégation au sein du Laboratoire EDYTEM de l'université Savoie Mont Blanc, Université Grenoble Alpes (UGA)
Micheline Draye, Professeure de Chimie à l'USMB, Université Savoie Mont Blanc
Nathalie Cottin, ingénieure chimiste, Université Savoie Mont Blanc
Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité. Capteurs portables et nouvelles méthodes sont nécessaires.
Texte intégral (2685 mots)

Les PFAS constituent une très grande famille de molécules dont certaines sont maintenant reconnues comme polluants éternels. Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité et pourrait être bien plus large, à condition d’améliorer les méthodes de mesure existantes et d’en développer de nouvelles, notamment en concevant des capteurs portables.


Les substances per- et polyfluoroalkylées, plus connues sous l’acronyme PFAS (on prononce « pifasse ») constituent une famille de plus de 12 000 molécules synthétiques. Ces composés contiennent des liaisons chimiques très fortes entre des atomes de Carbone et de Fluor, ce qui leur confère des propriétés remarquables.

En particulier, les PFAS peuvent posséder des propriétés antiadhésives, anti-frottements et déperlantes, associées à des stabilités chimiques et thermiques exceptionnelles. Pour ces raisons, les PFAS sont utilisés depuis les années 1950 dans de très nombreux produits de l’industrie (plasturgie, résines, peintures, mousses anti-incendie…) et de grande consommation (cosmétiques, textiles, emballages alimentaires…).

Malheureusement, certains PFAS sont aujourd’hui reconnus comme toxiques et nocifs pour la santé humaine et l’environnement. Leur grande stabilité chimique les rend difficilement (bio) dégradables et certains d’entre eux sont maintenant qualifiés de « polluants éternels ».

Il est donc nécessaire de limiter l’utilisation des PFAS et de résoudre les problèmes environnementaux et sanitaires dont ils sont responsables. C’est ainsi que des actions sont actuellement menées à l’échelle mondiale pour réglementer l’utilisation des PFAS, comprendre leurs effets sur la santé et l’environnement, mais aussi pour les remplacer, parvenir à décontaminer efficacement les sites pollués et aussi assurer leur suivi et leur surveillance.

Dans ce contexte, un point clé consiste à pouvoir détecter et quantifier efficacement les PFAS, que ce soit notamment dans l’environnement, l’eau de consommation et les eaux de rejets ou encore dans les milieux biologiques (fluides, organes…).

Malheureusement, le nombre considérable des substances per- et polyfluoroalkylées, la grande diversité de leurs propriétés et les faibles limites de détection à atteindre rendent leur surveillance et leur analyse extrêmement compliquées !

Deux exemples de PFAS particulièrement surveillés (PFOA et PFOS) — parmi la dizaine de milliers de composés PFAS existants. Guy Royal, Fourni par l'auteur

Comment analyse-t-on les PFAS ?

Plusieurs méthodes d’analyse des PFAS existent actuellement, mais la majorité des mesures est réalisée à l’aide d’une technique répondant au doux nom de « chromatographie liquide couplée à la spectrométrie de masse en tandem » (LC-MS/MS). Celle-ci permet de différentier, d’identifier et de quantifier les différents PFAS présents dans l’échantillon initial.

Cette technique d’analyse associe le pouvoir de séparation de la chromatographie en phase liquide aux capacités d’analyse de la spectrométrie de masse, hautement sensible et sélective.

schéma de principe
Principe de la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Guy Royal, Fourni par l'auteur

Cette technique, très utilisée notamment dans le domaine pharmaceutique et par les laboratoires d’analyse et de recherche, est extrêmement sensible et performante puisqu’elle permet d’analyser simultanément un grand nombre de molécules contenues dans des échantillons complexes avec des limites de détection très basses.

Toutefois, son utilisation est coûteuse et délicate à mettre en œuvre, car elle requiert l’utilisation d’un matériel de pointe et d’utilisateurs experts.

Avec cette technique, on ne peut détecter que ce que l’on recherche

De plus, il est nécessaire d’utiliser une colonne chromatographique adaptée aux molécules à analyser. Il faut également étalonner l’appareil, c’est-à-dire utiliser préalablement des échantillons de PFAS dont la composition en molécules et leurs concentrations sont connues afin de les reconnaître et de les quantifier lors de l’analyse.

Ainsi, on ne peut donc détecter que ce que l’on recherche : c’est pour cela que l’on parle d’« analyse ciblée ». Seule une gamme limitée de PFAS est ainsi détectée (quelques dizaines sont généralement recherchées), ce qui peut avoir pour effet de sous-estimer le total des PFAS présents dans un échantillon.

De surcroît, dans le cas spécifique des PFAS, ceux-ci peuvent se retrouver dans des matrices extrêmement variées pouvant être de l’eau (potable, naturelle, industrielle et/ou de rejet…), des sols et des boues, mais aussi des milieux biologiques tels que le sang ou les organes. Il est ainsi souvent nécessaire de procéder à un prétraitement de l’échantillon afin de le rendre compatible avec l’analyse.

Cette étape supplémentaire allonge significativement le temps nécessaire pour obtenir des résultats et en augmente le coût de chaque analyse pouvant représenter plusieurs centaines d’Euros. On comprend dès lors toute la complexité que revêt ce type d’analyse !

Enfin, la mesure des PFAS par chromatographie est réalisée exclusivement en laboratoire. Les échantillons doivent donc être transportés, ce qui rallonge le temps entre le prélèvement et le résultat d’analyse.

Pourra-t-on bientôt détecter les PFAS rapidement et sur site ?

Face aux enjeux actuels liés aux PFAS, une demande forte existe pour l’analyse in situ, en particulier des milieux environnementaux et des eaux de consommation, afin de détecter rapidement une éventuelle pollution et de permettre une intervention rapide et efficace.

À ce jour, il n’existe pas de test simple permettant de détecter des PFAS de manière rapide et directement sur le site à analyser (rivière, eau de rejet…). Il n’est pas non plus possible de mesurer en continu et de suivre la concentration de PFAS dans le temps.

Pour répondre à cette problématique, des recherches sont en cours à l’échelle mondiale afin de développer des capteurs simples permettant une détection rapide et à faible coût. L’objectif est notamment d’obtenir, de manière rapide et aisée, un signal — généralement électrique ou optique — indiquant la présence de PFAS dans un échantillon.

C’est dans ce contexte que le laboratoire EDYTEM de l’Université Savoie Mont-Blanc et l’entreprise grenobloise GRAPHEAL (start-up en essaimage du CNRS issue des travaux de recherche réalisés au sein de l’Institut Néel de Grenoble) travaillent conjointement au développement d’un capteur électronique à base de graphène.

Le graphène, dont les découvreurs ont été nobélisés en 2010, est un film moléculaire de carbone cristallin à deux dimensions et de l’épaisseur d’un simple atome. Son empilement constitue le graphite, et il est doté de propriétés électriques exceptionnelles car les électrons, forcés de circuler sur la surface du film en raison de son épaisseur ultimement fine, interagissent fortement avec les éléments adsorbés sur le graphène.

photo et schéma de principe
Une photo des capteurs de molécules développés par Grapheal, avec une illustration de leur principe : la présence de molécules entre la source et le drain affecte le courant électrique qui circule dans le dispositif, ce que l’on peut mesurer. Grapheal, Fourni par l'auteur

Le principe du dispositif visé, de type transistor, repose sur la connexion d’un plan de graphène à deux électrodes, le matériau graphène étant recouvert d’un film moléculaire capable d’interagir sélectivement avec une ou plusieurs molécules de type PFAS présentes dans l’échantillon à doser. Cette interaction à l’échelle moléculaire entraîne une modification de la tension entre les deux électrodes. L’amplitude de cette modification étant liée à la concentration de molécules PFAS présentes dans l’échantillon, il est alors possible de quantifier ces dernières.

Le développement d’une telle technique représente un véritable défi scientifique car il s’agit de mesurer l’équivalent d’une goutte d’eau dans un volume équivalent à trois piscines olympiques ! Il est aussi nécessaire d’explorer un vaste panel de molécules PFAS et de conditions expérimentales puisque les PFAS peuvent être présents dans des échantillons très divers qui vont de l’eau potable aux eaux de rejets.

À ce jour, ces dispositifs permettent de détecter différents types de PFAS actuellement surveillés, dont des PFAS ayant des chaînes fluorées longues (plus de 5 atomes de carbone) et courtes. Notre seuil de détection atteint actuellement 40 nanogrammes par litre pour le PFOA, qui est un des PFAS les plus couramment rencontrés à l’état de traces dans l’environnement.

Des techniques de préparation permettant de concentrer les PFAS dans le prélèvement pourraient encore améliorer ce seuil.

En cas de succès, ces capteurs permettront de réaliser des tests rapides, peu coûteux et utilisables directement sur site. À l’image des autotests Covid qui sont complémentaires des analyses PCR, ces capteurs électroniques à base de graphène — tout comme d’autres dispositifs d’analyse rapide, tels que des capteurs reposant sur un changement de coloration — viendront en complément des méthodes chromatographiques. Ils permettront d’obtenir davantage de résultats préliminaires, facilitant ainsi une surveillance accrue et mieux adaptée aux enjeux actuels liés au PFAS.

The Conversation

Guy Royal, professeur à l'Université Grenoble Alpes, développe sa thématique de recherche dédiée aux PFAS au sein du laboratoire EDYTEM de l'Université Savoie Mont Blanc dans le cadre d'une délégation.

Micheline Draye a reçu des financements de l'ANR projet ANR-23-LCV2-0008-01.

ingénieure chimiste

03.07.2025 à 14:42

Nouvelles images de la galaxie du Sculpteur : mille et une couleurs à 11 millions d’années-lumière de la Terre

Eric Emsellem, Astrophysicien, Observatoire Européen Austral
Une nouvelle étude a permis de couvrir presque totalement la galaxie dite du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé.
Texte intégral (1471 mots)
La galaxie du Sculpteur est imagée en grand détail par l'instrument MUSE du VLT de l'Observatoire européen austral, au Chili. ESO/E. Congiu et al., CC BY

Une nouvelle étude a permis de couvrir presque totalement la galaxie du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé, et dans de très nombreuses couleurs. Ces informations, libres d'accès, permettent d'avancer dans notre compréhension de la formation des étoiles.


Une collaboration internationale d'astronomes, dont je fais partie, vient de rendre publique une des plus grandes mosaïques multicouleur d'une galaxie emblématique de l'Univers proche, la galaxie spirale du Sculpteur, ou NGC 253.

En seulement quelques nuits d'observations, nous avons pu couvrir la quasi-totalité de la surface apparente de cette galaxie de 65 000 années-lumière de large, avec un niveau de détail inégalé, grâce à un instrument unique, MUSE, attaché au Very Large Telescope de l'Observatoire européen austral (ESO).

Ces images permettent de voir à la fois les petites et les grandes échelles de cette galaxie située à 11 millions d'années-lumière de la nôtre. En d'autres termes, on peut zoomer et dézoomer à l'envi, ce qui ouvre la porte à de nouvelles découvertes, et à une compréhension approfondie du processus de formation des étoiles.

Un des Graals de l'astrophysique moderne : comprendre la formation des étoiles

Voici ce que l'on sait déjà. Pour former des étoiles, du gaz interstellaire est comprimé et de petits grumeaux s'effondrent : des étoiles naissent, vivent, et certaines étoiles finissent leurs vies dans une explosion qui disperse de nouveaux atomes et molécules dans le milieu interstellaire environnant — ce qui procure une partie du matériel nécessaire à la prochaine génération d'étoiles.

La galaxie du Sculpteur vue par le VLT : les étoiles déjà présentes en gris, auxquelles se surimposent les pouponnières d'étoiles en rose. Source : ESO.

Ce que l'on comprend beaucoup moins bien, c'est de quelle façon les grandes structures du disque galactique comme les spirales, les filaments ou les barres évoluent dans le temps et promeuvent (ou inhibent) ce processus de formation d'étoiles.

Pour comprendre ces processus, il faut étudier de nombreuses échelles à la fois.

En premier lieu, des échelles spatiales : les grandes structures elles-mêmes (spirales, filaments, barres font plusieurs milliers d'années-lumière), les régions denses de gaz appelées « pouponnières d'étoiles » (qui ne font « que » quelques années-lumière)… et une vision globale et cohérente de la galaxie hôte (jusqu'à des dizaines de milliers d'années-lumière de rayon).


À lire aussi : Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1


De plus, ces processus ont lieu sur des durées totalement différentes les unes des autres : les étoiles massives explosent au bout de quelques millions d'années, alors que les structures dynamiques comme les spirales évoluent sur des centaines de millions d'années.

De nombreuses études ont permis, dans les quinze dernières années, une cartographie de galaxies voisines à l'aide d'imageurs très performants au sol et dans l'espace.

Mais les différents acteurs de ces processus complexes (par exemple le gaz interstellaire, les étoiles jeunes ou vieilles, naines ou massives, la poussière) émettent de la lumière de manière spécifique. Certains par exemple n'émettent que certaines couleurs, d'autres un large domaine de longueur d'onde.

Ainsi, seule la spectroscopie — qui distingue les différentes couleurs de la lumière — permet d'extraire simultanément des informations telles que la composition des étoiles, l'abondance des différents atomes dans le gaz interstellaire, le mouvement du gaz et des étoiles, leur température, etc.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l'actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd'hui !


L'avancée de l'ESO et de son instrument MUSE

C'est pourquoi cette étude dirigée par Enrico Congiu, un astronome de l'ESO, est si pertinente et excitante pour la communauté scientifique.

En rassemblant plus de 100 champs de vue, et quelques 9 millions de spectres obtenus avec le spectrographe MUSE au VLT, Enrico Congiu et son équipe, dont j'ai la chance de faire parti, ont pu sonder simultanément et pour la première fois l'ensemble de la galaxie mais aussi les différentes régions de formation stellaire individuellement dans leur environnement spécifique (dans les bras des spirales, au sein de la barre ou vers le centre), apportant des mesures robustes de leur composition et de leur dynamique.

La galaxie du Sculpteur vue dans différentes couleurs grâce au spectrographe MUSE : les éclats correspondent à des éléments chimiques abondants, comme l'hydrogène, qui émettent à des longueurs d'onde spécifiques. Source : ESO.

L'équipe d'astronomes en a profité pour découvrir plusieurs centaines de nébuleuses planétaires — vingt fois plus que ce qui était connu jusque-là. Ces données nous donnent simultanément des indications sur l'histoire de formation stellaire de la galaxie. Par exemple, elles vont permettre d'identifier et de caractériser en détail presque 2500 régions de formation stellaire, la plus grande base de données spectroscopiques pour une seule galaxie (article en préparation).

Mais c'est aussi une opportunité unique de tester la mesure de la distance à cette galaxie.

En effet, le nombre relatif de nébuleuses planétaires brillantes et moins brillantes au sein d'une même galaxie est un levier puissant pour déterminer la distance de cette galaxie. L'équipe internationale a ainsi montré que la méthode basée sur les nébuleuses planétaires était certainement entachée d'erreur si l'on ignore l'impact de l'extinction due à la poussière présente dans la galaxie.

Exploiter librement les données de MUSE pour démultiplier le potentiel de découverte

Ces magnifiques données calibrées et documentées de NGC 253 sont le fruit d'un travail important de la collaboration menée par Enrico Congiu, qui a décidé de les rendre publiques. Au-delà des études présentes et futures conduites par cette équipe, c'est donc la communauté astronomique mondiale (et n'importe quel astronome amateur !) qui peut aujourd'hui librement exploiter le cube de données spectroscopique MUSE.

Cet aspect « Science ouverte » est une composante primordiale de la science moderne, permettant à d'autres équipes de reproduire, tester et étendre le travail effectué, et d'appliquer de nouvelles approches, à la fois créatives et rigoureuses scientifiquement, pour sonder ce magnifique héritage de la science et de la technologie.

The Conversation

Eric Emsellem a reçu des financements de la Fondation Allemande pour la Recherche (DFG) pour par exemple l'emploi d'etudiants. Il travaille pour l'ESO (Observatoire Europeen Austral) et est en détachement de l'Observatoire de Lyon qui a mené la construction de l'instrument MUSE. Il fait parti de la collaboration internationale PHANGS et est un co-auteur de l'étude menée par Enrico Congiu.

02.07.2025 à 18:38

Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ?

Bastien Fayet, Doctorant en géographie - UMR 6590 ESO, Université d’Angers
Le Palais de la découverte, fermé depuis 4 ans, pourrait ne jamais rouvrir. Un symbole fort des fragilités de la culture scientifique en France.
Texte intégral (2439 mots)
La mythique cage de Faraday du Palais de la découverte a permis à des milliers d'enfants de comprendre les principes de la conductivité électrique, en toute sécurité N Krief EPPDCSI, CC BY-ND

Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.


Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?

Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.

En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.

Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.

Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.

Un symbole de l’évolution de la culture scientifique

Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.

Le Palais de la découverte, depuis 1937 temple de la vulgarisation scientifique.

Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :

« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».

Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.

Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.

Ainsi, le Palais propose dans ces années des expositions itinérantes - traduisant la volonté d’aller au-delà des murs du musée - des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.

En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.

Expérience démontrant le principe de l'électrostatisme au Palais de la découverte
Expérience démontrant le principe de l'électrostatisme au Palais de la découverte. A Robin EPPDCSI, CC BY-ND

La diversité de la culture scientifique en France

Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.

L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.

Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants - sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Culture scientifique et justice sociale : mission impossible

Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).

Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.

Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.

Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.

Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.

La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France

The Conversation

Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞