ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
06.07.2025 à 09:40
Détecter les contenus pédocriminels en ligne : quelles options techniques ? Quels risques pour la vie privée ?
Texte intégral (3014 mots)
Les contenus à caractère pédopornographique pullulent sur le net. Ils sont issus de la terrible exploitation d’enfants, et ce qui est montré constitue avant tout un crime réellement perpétré. Ils sont également dangereux pour les gens qui les voient, notamment les enfants.
Ces contenus criminels font donc l’objet de plus en plus de régulations et de détection automatisées. Mais comment concilier la protection des mineurs avec la préservation de la vie privée, la protection des données personnelles, et les libertés fondamentales — sans ouvrir la voie à une surveillance de masse ?
Certaines entreprises, comme Apple, Google et Meta, pratiquent déjà la détection de contenus pédopornographiques sur certains services (hormis les messageries chiffrées de bout en bout comme WhatsApp ou Signal). La France est particulièrement concernée, avec plus de 310 000 signalements reçus en 2023. Ces entreprises procèdent volontairement à ces détections grâce à une dérogation européenne à la directive ePrivacy.
Aujourd’hui, le Conseil de l’Europe envisage, dans sa proposition de régulation communément appelée ChatControl, de rendre obligatoire le scan des communications privées pour y détecter les contenus pédopornographiques — y compris sur les applications chiffrées de bout en bout.
En effet, bien que ces contenus soient illégaux, leur détection automatique ne fait pas encore l’objet d’une régulation. Mais une telle mesure généraliserait la surveillance : chaque média échangé par chaque citoyen devrait être scanné. Quelle est aujourd’hui l’efficacité de la détection de contenu à caractère pédocriminel et de leur signalement ?
À lire aussi : Peut-on détecter automatiquement les deepfakes ?
Lutte contre la criminalité et surveillance
Le chiffrement « de bout en bout » (de l’émetteur au récepteur) et sans accès possible aux données par les fournisseurs est de plus en plus populaire avec les applications comme WhatsApp, Signal ou iMessage.
Cependant, depuis 2010, les gouvernements réclament plus fermement l’affaiblissement du chiffrement, tandis que les experts en cybersécurité mettent en garde contre les risques de failles exploitables par des acteurs malveillants.
En effet, une fois les moyens techniques de surveillance instaurés, il est extrêmement difficile de s’assurer qu’ils ne seront pas, par exemple, exploités à des fins de répression politique. On l’a vu avec le logiciel espion Pegasus et, plus récemment, avec l’affaire TeleMessage, quand des membres du gouvernement américain pensaient utiliser une version sécurisée de Signal, alors que leurs communications étaient en fait accessibles quasi publiquement.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Détection de contenus à caractère pédocriminel : comment ça marche, techniquement ?
On distingue deux types de contenus à caractère pédocriminel.
D’une part, les contenus déjà identifiés, qui représentent la grande majorité des contenus à caractère pédocriminel en ligne.
D’autre part, les contenus nouveaux, qu’ils soient réels ou générés par IA (et donc des « faux » à proprement parler, mais présentant quand même un caractère pédocriminel), qui sont très minoritaires en pratique aujourd’hui.
Pour identifier les contenus à caractère pédocriminel connus, on pourrait être tenté de les stocker dans une base de données qui servirait de base de comparaison. Cependant, un tel stockage est illégal dans la plupart des pays, et dangereux (car des personnes pourraient y être exposées).
C’est pour cela que les plates-formes – à qui incombe la responsabilité de scanner les contenus — stockent uniquement une « signature », et non les images elles-mêmes. Ces signatures sont générées par des « fonctions de hachage perceptuelles ».
Ces fonctions produisent des signatures similaires pour des contenus visuellement proches. Par exemple, une photo légèrement modifiée (en appliquant un filtre par exemple) conserve une signature proche de celle de la photo d’origine, alors que deux images différentes (un chien et un chat) donneront des signatures bien distinctes.

Ainsi, si une plate-forme veut détecter un contenu à caractère pédocriminel, elle calcule le « haché perceptuel » (la signature) de l’image et le compare aux signatures de contenus connus.
C’est le seul moyen de détection automatique qui existe aujourd’hui — les systèmes d’intelligence artificielle sont pour l’instant moins performants et nécessitent systématiquement une vérification humaine. Il est déjà utilisé à grande échelle, puisque les GAFAM utilisent ce système pour scanner uniquement les informations que les utilisateurs choisissent de partager sur les réseaux sociaux, Internet ou via des messageries non chiffrées de bout en bout.
Signalements de contenus à caractère pédocriminel
Si une correspondance est trouvée entre la signature d’une image d’un utilisateur et celle d’un contenu pédocriminel, l’image est signalée automatiquement au NCMEC (National Center for Missing and Exploited Children ou Centre national pour les enfants disparus et exploités), une organisation américaine à but non lucratif qui centralise et coordonne les signalements à l’échelle mondiale et agit comme un intermédiaire entre les plates-formes numériques, les forces de l’ordre et les autorités nationales. Les plates-formes peuvent également suspendre le compte de l’utilisateur.
En 2023, moins de 64 000 rapports automatiques, sur plus de 36 millions reçus par le NCMEC, ont été reconnus « urgents » par les autorités — soit 0,2 %.
Si aucun organisme n’a communiqué sur l’efficacité réelle des fonctions de hachage perceptuelles, il est établi qu’elles peuvent être attaquées avec succès et que le système de détection peut être mis en échec. Il est par exemple possible de modifier légèrement une image pour que sa signature corresponde à celle d’une image anodine, ce qui permettrait à des individus malveillants de faire passer un contenu dangereux pour anodin (faux négatifs).
Les fonctions de hachage perceptuelles génèrent aussi de nombreux faux positifs : des images différentes peuvent partager la même signature, ce qui pourrait mener à accuser à tort des centaines de milliers de citoyens.

Introduire des portes dérobées
Aujourd’hui, le Conseil de l’Union européenne souhaite rendre la détection obligatoire, y compris aux applications de messageries qui, pour la plupart, ne font pas encore de détection de contenus à caractère pédocriminel.
Or, pour détecter automatiquement des contenus illégaux, il faut y avoir accès… ce qui est compliqué puisqu’une grande part des communications passe par des messageries chiffrées « de bout en bout », c’est-à-dire pour lesquelles un tiers ne peut pas scanner les contenus échangés entre deux personnes.
Rendre la détection possible même sur des messageries chiffrées reviendrait à intégrer une porte dérobée dans le protocole de chiffrement afin de fournir l’accès aux données chiffrées à un tiers. Une telle porte dérobée représente une faille de cybersécurité — ce qui rend cette option inenvisageable en pratique.
À lire aussi : Confidentialité, géolocalisation : la 5G est-elle plus sûre que la 4G et la 3G ?
Scanner les photos directement sur les téléphones des utilisateurs
En pratique, ce que recommande donc aujourd’hui le Conseil de l’Union, sur la base d’un rapport technique de 2022 analysant les options disponibles (qui n’ont pas évolué depuis la publication du rapport), c’est de recourir au client-side scanning, c’est-à-dire scanner les photos directement sur les téléphones des utilisateurs.
Cela impliquerait un accès aux photos de tous les appareils en Europe, posant des risques majeurs : détection automatique de contenus légitimes (par exemple des photos d’enfants partagées avec un médecin) ou de nudes échangés volontairement entre adolescents.
De plus, cet accès pourrait permettre la consultation de tout ou partie des photos stockées sur téléphone, sans que les citoyens n’en soient informés, ce qui représenterait une atteinte potentielle à la vie privée, en contradiction avec la Convention européenne des droits de l’homme.
Enfin, l’efficacité limitée des fonctions actuelles pourrait entraîner de nombreux faux positifs, tout en laissant passer des contenus pédocriminels légèrement modifiés.
Le « function creep » : le risque de détournement d’une technologie conçue pour un usage particulier
L’un des principaux dangers liés à l’affaiblissement du chiffrement est le phénomène du « function creep » : une technologie conçue pour un usage précis finit par dériver, au détriment des libertés.
L’histoire de la surveillance numérique montre que des outils mis en place sous couvert de sécurité ont régulièrement été réutilisés pour d’autres finalités, parfois abusives.
Un exemple emblématique est le programme de surveillance PRISM mis en place par la National Security Agency (NSA) des États-Unis. Ce programme illustre bien comment des outils de surveillance créés pour des motifs de sécurité nationale afin de lutter contre le terrorisme (notamment après les attentats du 11 septembre 2001) ont été utilisés pour collecter des données de masse, y compris sur des citoyens ordinaires et des alliés des États-Unis.
De façon semblable, dans un premier temps, les autorités pourraient justifier la nécessité d’un accès aux communications chiffrées par la lutte contre la pédocriminalité et le terrorisme, deux causes auxquelles l’opinion publique est particulièrement sensible. Mais une fois l’infrastructure technique en place, il pourrait devenir tentant d’élargir leur usage à d’autres types d’infractions : criminalité organisée, fraudes, voire délinquance économique.
Ainsi, un système conçu pour détecter des images pédopornographiques dans les messages chiffrés pourrait être détourné pour identifier des documents sensibles partagés par des journalistes d’investigation ou des opposants politiques, comme les affaires Pegasus et Telemessage l’ont montré récemment. Mais finalement, le plus grand problème de ces systèmes imposés à large échelle est simplement qu’ils seront facilement contournés par les criminels.
Le projet DIGISOV ANR-23-CE53-0009 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Aurélien Francillon a reçu des financements de la commission européenne via le projet ORSHIN (Horizon 101070008), l'ANR via le projet PEPR REV (ANR-22-PECY-0009 France 2030) et les entreprises Eviden et SAP.
Diane Leblanc-Albarel reçoit des financements du Fonds Wetenschappelijk Onderzoek (Fonds de recherche scientifique flamand, FWO).
Francesca Musiani reçoit des financements de l'Agence Nationale de la Recherche (projets ANR DIGISOV et ORA ClaimSov).
Pierrick Philippe a reçu des financements de CREACH LABS.
03.07.2025 à 16:33
PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?
Texte intégral (2685 mots)
Les PFAS constituent une très grande famille de molécules dont certaines sont maintenant reconnues comme polluants éternels. Si la réglementation actuelle impose de mesurer les concentrations de certains PFAS uniquement, le nombre de ces composés à analyser est encore bien limité et pourrait être bien plus large, à condition d’améliorer les méthodes de mesure existantes et d’en développer de nouvelles, notamment en concevant des capteurs portables.
Les substances per- et polyfluoroalkylées, plus connues sous l’acronyme PFAS (on prononce « pifasse ») constituent une famille de plus de 12 000 molécules synthétiques. Ces composés contiennent des liaisons chimiques très fortes entre des atomes de Carbone et de Fluor, ce qui leur confère des propriétés remarquables.
En particulier, les PFAS peuvent posséder des propriétés antiadhésives, anti-frottements et déperlantes, associées à des stabilités chimiques et thermiques exceptionnelles. Pour ces raisons, les PFAS sont utilisés depuis les années 1950 dans de très nombreux produits de l’industrie (plasturgie, résines, peintures, mousses anti-incendie…) et de grande consommation (cosmétiques, textiles, emballages alimentaires…).
Malheureusement, certains PFAS sont aujourd’hui reconnus comme toxiques et nocifs pour la santé humaine et l’environnement. Leur grande stabilité chimique les rend difficilement (bio) dégradables et certains d’entre eux sont maintenant qualifiés de « polluants éternels ».
Il est donc nécessaire de limiter l’utilisation des PFAS et de résoudre les problèmes environnementaux et sanitaires dont ils sont responsables. C’est ainsi que des actions sont actuellement menées à l’échelle mondiale pour réglementer l’utilisation des PFAS, comprendre leurs effets sur la santé et l’environnement, mais aussi pour les remplacer, parvenir à décontaminer efficacement les sites pollués et aussi assurer leur suivi et leur surveillance.
Dans ce contexte, un point clé consiste à pouvoir détecter et quantifier efficacement les PFAS, que ce soit notamment dans l’environnement, l’eau de consommation et les eaux de rejets ou encore dans les milieux biologiques (fluides, organes…).
Malheureusement, le nombre considérable des substances per- et polyfluoroalkylées, la grande diversité de leurs propriétés et les faibles limites de détection à atteindre rendent leur surveillance et leur analyse extrêmement compliquées !

Comment analyse-t-on les PFAS ?
Plusieurs méthodes d’analyse des PFAS existent actuellement, mais la majorité des mesures est réalisée à l’aide d’une technique répondant au doux nom de « chromatographie liquide couplée à la spectrométrie de masse en tandem » (LC-MS/MS). Celle-ci permet de différentier, d’identifier et de quantifier les différents PFAS présents dans l’échantillon initial.
Cette technique d’analyse associe le pouvoir de séparation de la chromatographie en phase liquide aux capacités d’analyse de la spectrométrie de masse, hautement sensible et sélective.

Cette technique, très utilisée notamment dans le domaine pharmaceutique et par les laboratoires d’analyse et de recherche, est extrêmement sensible et performante puisqu’elle permet d’analyser simultanément un grand nombre de molécules contenues dans des échantillons complexes avec des limites de détection très basses.
Toutefois, son utilisation est coûteuse et délicate à mettre en œuvre, car elle requiert l’utilisation d’un matériel de pointe et d’utilisateurs experts.
Avec cette technique, on ne peut détecter que ce que l’on recherche
De plus, il est nécessaire d’utiliser une colonne chromatographique adaptée aux molécules à analyser. Il faut également étalonner l’appareil, c’est-à-dire utiliser préalablement des échantillons de PFAS dont la composition en molécules et leurs concentrations sont connues afin de les reconnaître et de les quantifier lors de l’analyse.
Ainsi, on ne peut donc détecter que ce que l’on recherche : c’est pour cela que l’on parle d’« analyse ciblée ». Seule une gamme limitée de PFAS est ainsi détectée (quelques dizaines sont généralement recherchées), ce qui peut avoir pour effet de sous-estimer le total des PFAS présents dans un échantillon.
De surcroît, dans le cas spécifique des PFAS, ceux-ci peuvent se retrouver dans des matrices extrêmement variées pouvant être de l’eau (potable, naturelle, industrielle et/ou de rejet…), des sols et des boues, mais aussi des milieux biologiques tels que le sang ou les organes. Il est ainsi souvent nécessaire de procéder à un prétraitement de l’échantillon afin de le rendre compatible avec l’analyse.
Cette étape supplémentaire allonge significativement le temps nécessaire pour obtenir des résultats et en augmente le coût de chaque analyse pouvant représenter plusieurs centaines d’Euros. On comprend dès lors toute la complexité que revêt ce type d’analyse !
Enfin, la mesure des PFAS par chromatographie est réalisée exclusivement en laboratoire. Les échantillons doivent donc être transportés, ce qui rallonge le temps entre le prélèvement et le résultat d’analyse.
Pourra-t-on bientôt détecter les PFAS rapidement et sur site ?
Face aux enjeux actuels liés aux PFAS, une demande forte existe pour l’analyse in situ, en particulier des milieux environnementaux et des eaux de consommation, afin de détecter rapidement une éventuelle pollution et de permettre une intervention rapide et efficace.
À ce jour, il n’existe pas de test simple permettant de détecter des PFAS de manière rapide et directement sur le site à analyser (rivière, eau de rejet…). Il n’est pas non plus possible de mesurer en continu et de suivre la concentration de PFAS dans le temps.
Pour répondre à cette problématique, des recherches sont en cours à l’échelle mondiale afin de développer des capteurs simples permettant une détection rapide et à faible coût. L’objectif est notamment d’obtenir, de manière rapide et aisée, un signal — généralement électrique ou optique — indiquant la présence de PFAS dans un échantillon.
C’est dans ce contexte que le laboratoire EDYTEM de l’Université Savoie Mont-Blanc et l’entreprise grenobloise GRAPHEAL (start-up en essaimage du CNRS issue des travaux de recherche réalisés au sein de l’Institut Néel de Grenoble) travaillent conjointement au développement d’un capteur électronique à base de graphène.
Le graphène, dont les découvreurs ont été nobélisés en 2010, est un film moléculaire de carbone cristallin à deux dimensions et de l’épaisseur d’un simple atome. Son empilement constitue le graphite, et il est doté de propriétés électriques exceptionnelles car les électrons, forcés de circuler sur la surface du film en raison de son épaisseur ultimement fine, interagissent fortement avec les éléments adsorbés sur le graphène.

Le principe du dispositif visé, de type transistor, repose sur la connexion d’un plan de graphène à deux électrodes, le matériau graphène étant recouvert d’un film moléculaire capable d’interagir sélectivement avec une ou plusieurs molécules de type PFAS présentes dans l’échantillon à doser. Cette interaction à l’échelle moléculaire entraîne une modification de la tension entre les deux électrodes. L’amplitude de cette modification étant liée à la concentration de molécules PFAS présentes dans l’échantillon, il est alors possible de quantifier ces dernières.
Le développement d’une telle technique représente un véritable défi scientifique car il s’agit de mesurer l’équivalent d’une goutte d’eau dans un volume équivalent à trois piscines olympiques ! Il est aussi nécessaire d’explorer un vaste panel de molécules PFAS et de conditions expérimentales puisque les PFAS peuvent être présents dans des échantillons très divers qui vont de l’eau potable aux eaux de rejets.
À ce jour, ces dispositifs permettent de détecter différents types de PFAS actuellement surveillés, dont des PFAS ayant des chaînes fluorées longues (plus de 5 atomes de carbone) et courtes. Notre seuil de détection atteint actuellement 40 nanogrammes par litre pour le PFOA, qui est un des PFAS les plus couramment rencontrés à l’état de traces dans l’environnement.
Des techniques de préparation permettant de concentrer les PFAS dans le prélèvement pourraient encore améliorer ce seuil.
En cas de succès, ces capteurs permettront de réaliser des tests rapides, peu coûteux et utilisables directement sur site. À l’image des autotests Covid qui sont complémentaires des analyses PCR, ces capteurs électroniques à base de graphène — tout comme d’autres dispositifs d’analyse rapide, tels que des capteurs reposant sur un changement de coloration — viendront en complément des méthodes chromatographiques. Ils permettront d’obtenir davantage de résultats préliminaires, facilitant ainsi une surveillance accrue et mieux adaptée aux enjeux actuels liés au PFAS.

Guy Royal, professeur à l'Université Grenoble Alpes, développe sa thématique de recherche dédiée aux PFAS au sein du laboratoire EDYTEM de l'Université Savoie Mont Blanc dans le cadre d'une délégation.
Micheline Draye a reçu des financements de l'ANR projet ANR-23-LCV2-0008-01.
ingénieure chimiste
03.07.2025 à 14:42
Nouvelles images de la galaxie du Sculpteur : mille et une couleurs à 11 millions d’années-lumière de la Terre
Texte intégral (1471 mots)

Une nouvelle étude a permis de couvrir presque totalement la galaxie du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé, et dans de très nombreuses couleurs. Ces informations, libres d'accès, permettent d'avancer dans notre compréhension de la formation des étoiles.
Une collaboration internationale d'astronomes, dont je fais partie, vient de rendre publique une des plus grandes mosaïques multicouleur d'une galaxie emblématique de l'Univers proche, la galaxie spirale du Sculpteur, ou NGC 253.
En seulement quelques nuits d'observations, nous avons pu couvrir la quasi-totalité de la surface apparente de cette galaxie de 65 000 années-lumière de large, avec un niveau de détail inégalé, grâce à un instrument unique, MUSE, attaché au Very Large Telescope de l'Observatoire européen austral (ESO).
Ces images permettent de voir à la fois les petites et les grandes échelles de cette galaxie située à 11 millions d'années-lumière de la nôtre. En d'autres termes, on peut zoomer et dézoomer à l'envi, ce qui ouvre la porte à de nouvelles découvertes, et à une compréhension approfondie du processus de formation des étoiles.
Un des Graals de l'astrophysique moderne : comprendre la formation des étoiles
Voici ce que l'on sait déjà. Pour former des étoiles, du gaz interstellaire est comprimé et de petits grumeaux s'effondrent : des étoiles naissent, vivent, et certaines étoiles finissent leurs vies dans une explosion qui disperse de nouveaux atomes et molécules dans le milieu interstellaire environnant — ce qui procure une partie du matériel nécessaire à la prochaine génération d'étoiles.
Ce que l'on comprend beaucoup moins bien, c'est de quelle façon les grandes structures du disque galactique comme les spirales, les filaments ou les barres évoluent dans le temps et promeuvent (ou inhibent) ce processus de formation d'étoiles.
Pour comprendre ces processus, il faut étudier de nombreuses échelles à la fois.
En premier lieu, des échelles spatiales : les grandes structures elles-mêmes (spirales, filaments, barres font plusieurs milliers d'années-lumière), les régions denses de gaz appelées « pouponnières d'étoiles » (qui ne font « que » quelques années-lumière)… et une vision globale et cohérente de la galaxie hôte (jusqu'à des dizaines de milliers d'années-lumière de rayon).
À lire aussi : Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1
De plus, ces processus ont lieu sur des durées totalement différentes les unes des autres : les étoiles massives explosent au bout de quelques millions d'années, alors que les structures dynamiques comme les spirales évoluent sur des centaines de millions d'années.
De nombreuses études ont permis, dans les quinze dernières années, une cartographie de galaxies voisines à l'aide d'imageurs très performants au sol et dans l'espace.
Mais les différents acteurs de ces processus complexes (par exemple le gaz interstellaire, les étoiles jeunes ou vieilles, naines ou massives, la poussière) émettent de la lumière de manière spécifique. Certains par exemple n'émettent que certaines couleurs, d'autres un large domaine de longueur d'onde.
Ainsi, seule la spectroscopie — qui distingue les différentes couleurs de la lumière — permet d'extraire simultanément des informations telles que la composition des étoiles, l'abondance des différents atomes dans le gaz interstellaire, le mouvement du gaz et des étoiles, leur température, etc.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l'actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd'hui !
L'avancée de l'ESO et de son instrument MUSE
C'est pourquoi cette étude dirigée par Enrico Congiu, un astronome de l'ESO, est si pertinente et excitante pour la communauté scientifique.
En rassemblant plus de 100 champs de vue, et quelques 9 millions de spectres obtenus avec le spectrographe MUSE au VLT, Enrico Congiu et son équipe, dont j'ai la chance de faire parti, ont pu sonder simultanément et pour la première fois l'ensemble de la galaxie mais aussi les différentes régions de formation stellaire individuellement dans leur environnement spécifique (dans les bras des spirales, au sein de la barre ou vers le centre), apportant des mesures robustes de leur composition et de leur dynamique.
L'équipe d'astronomes en a profité pour découvrir plusieurs centaines de nébuleuses planétaires — vingt fois plus que ce qui était connu jusque-là. Ces données nous donnent simultanément des indications sur l'histoire de formation stellaire de la galaxie. Par exemple, elles vont permettre d'identifier et de caractériser en détail presque 2500 régions de formation stellaire, la plus grande base de données spectroscopiques pour une seule galaxie (article en préparation).
Mais c'est aussi une opportunité unique de tester la mesure de la distance à cette galaxie.
En effet, le nombre relatif de nébuleuses planétaires brillantes et moins brillantes au sein d'une même galaxie est un levier puissant pour déterminer la distance de cette galaxie. L'équipe internationale a ainsi montré que la méthode basée sur les nébuleuses planétaires était certainement entachée d'erreur si l'on ignore l'impact de l'extinction due à la poussière présente dans la galaxie.
Exploiter librement les données de MUSE pour démultiplier le potentiel de découverte
Ces magnifiques données calibrées et documentées de NGC 253 sont le fruit d'un travail important de la collaboration menée par Enrico Congiu, qui a décidé de les rendre publiques. Au-delà des études présentes et futures conduites par cette équipe, c'est donc la communauté astronomique mondiale (et n'importe quel astronome amateur !) qui peut aujourd'hui librement exploiter le cube de données spectroscopique MUSE.
Cet aspect « Science ouverte » est une composante primordiale de la science moderne, permettant à d'autres équipes de reproduire, tester et étendre le travail effectué, et d'appliquer de nouvelles approches, à la fois créatives et rigoureuses scientifiquement, pour sonder ce magnifique héritage de la science et de la technologie.

Eric Emsellem a reçu des financements de la Fondation Allemande pour la Recherche (DFG) pour par exemple l'emploi d'etudiants. Il travaille pour l'ESO (Observatoire Europeen Austral) et est en détachement de l'Observatoire de Lyon qui a mené la construction de l'instrument MUSE. Il fait parti de la collaboration internationale PHANGS et est un co-auteur de l'étude menée par Enrico Congiu.
02.07.2025 à 18:38
Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ?
Texte intégral (2439 mots)

Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.
Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?
Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.
En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.
Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.
Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.
Un symbole de l’évolution de la culture scientifique
Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.
Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :
« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».
Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.
Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.
Ainsi, le Palais propose dans ces années des expositions itinérantes - traduisant la volonté d’aller au-delà des murs du musée - des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.
En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.

La diversité de la culture scientifique en France
Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.
L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.
Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants - sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Culture scientifique et justice sociale : mission impossible
Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).
Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.
Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.
Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.
Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.
La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France

Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 08:30
Mais pourquoi certains requins « freezent » lorsqu’on les retourne ?
Texte intégral (1421 mots)

Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.
Mais que se passe-t-il quand un requin agit ainsi ?
Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.
Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?
Le mystère du « requin figé »
Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.
Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.
Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.
Alors, pourquoi certains requins se figent-ils ?
Trois hypothèses principales
Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :
Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.
Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.
Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.
Mais nos résultats ne confirment aucune de ces explications.
Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.
Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.
Une affaire de bagage évolutif
Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.
En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?
Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.
Que faut-il en conclure ?
Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.
Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.
Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.

Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.
Joel Gayford reçoit des financements du Northcote Trust.