12.03.2026 à 16:55
Léo Gerville-Réache, Modélisation statistique, Université de Bordeaux
En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques, déterminer comment elles sont construites et déterminer les biais et les incertitudes.
Le dimanche 7 juillet 2024, le verdict des urnes a balayé des semaines de « certitudes statistiques ». Alors que les instituts plaçaient le Rassemblement national (RN) et ses alliés en tête avec une fourchette de 170 à 230 sièges, les résultats définitifs ont figé le compteur à 143 sièges, reléguant le parti à la troisième place.
Comment un appareil statistique aussi sophistiqué a-t-il pu manquer la physionomie de l’Assemblée à ce point ? La réponse ne réside pas seulement dans de « mauvais chiffres », mais dans un décalage structurel entre ce que la loi encadre, ce que la statistique permet, et ce que le public entend.
Depuis la loi no 2016-508 du 25 avril 2016, la Commission des sondages est chargée de veiller au respect de la réglementation. Elle s’est dotée d’un site donnant accès aux notices explicatives de l’ensemble des sondages électoraux publiés, et publie régulièrement des communiqués. Le 18 juin 2024, à l’occasion des élections législatives, la commission alerte sur une distinction juridique fondamentale qui échappe souvent au grand public :
Le sondage (contrôlé) : une enquête statistique sur un échantillon représentatif de l’ensemble du territoire hexagonal. La commission exerce ici un contrôle systématique sur la méthode de sélection, les quotas et les redressements.
La projection en sièges (non contrôlée) : c’est un exercice de « traduction » du vote national en sièges parlementaires. La commission est formelle : elle n’exerce aucun contrôle sur ces chiffres et recommande la prudence.
Pourquoi ? Parce que la projection est tributaire de 577 réalités locales : offre politique spécifique, notoriété des candidats et, surtout, les configurations de seconds tours (triangulaires, désistements) qui dépendent du taux de participation. En somme, la loi encadre la « matière première » (l’intention de vote), mais laisse le « produit fini » (la projection en sièges) dans une zone grise méthodologique.
L’un des plus grands malentendus réside dans l’affichage des marges d’erreur, perçues à tort comme une mesure globale de la fiabilité. Depuis la loi de 2016, chaque première publication d’un sondage doit obligatoirement indiquer sa marge d’incertitude. Pourtant, la quasi-totalité des instituts français utilise la méthode des quotas, une technique sur laquelle la notion mathématique de marge d’erreur n’a techniquement « pas de sens », comme les instituts l’admettaient eux-mêmes devant le Sénat.
En « théorie des sondages », on distingue explicitement :
les sondages « aléatoires », où chaque individu de la population cible du sondage a une probabilité connue et non nulle de faire partie de l’échantillon de répondants, et on se sert de ces probabilités pour établir des marges d’erreur. Ici la « représentativité » est, par construction, indiscutable.
les sondages par « quotas » où il s’agit de contrôler que la structure de l’échantillon de répondants au sondage est similaire à celle de la population cible (essentiellement : sexe, âge, catégorie socioprofessionnelle, région de résidence et catégorie d’agglomération). Ici, la « représentativité » est seulement partiellement contrôlée, et la probabilité de chaque individu, d’appartenir à l’échantillon, est inconnue.
Pour comprendre l’origine de cette ambiguïté sur les marges d’erreur, il faut remonter au rapport no 54 du Sénat de 2010 qui a entériné un glissement sémantique majeur en estimant qu’il était « tout à fait possible » de considérer que les quotas génèrent des incertitudes « similaires » à la méthode aléatoire.
Or, Pascal Ardilly (inspecteur général de l’Insee et auteur de l’incontournable livre les Techniques de sondage), auditionné par le Sénat, précisait explicitement que faire l’hypothèse de marges d’erreur similaires pour les résultats d’un sondage, qu’il soit issu de la méthode des quotas ou de la méthode aléatoire, relevait d’une hypothèse très forte et non vérifiée d’absence de biais pour la méthode des quotas.
Un glissement analogue apparaît avec l’usage tronqué de la notion d’« échantillonnage contrôlé » attribuée à Jerzy Neyman (considéré comme l’un des fondateurs de la statistique moderne).
En omettant le mot « aléatoire » dans l’expression originelle « échantillonnage aléatoire contrôlé », on fait comme si le contrôle des quotas pouvait se substituer au hasard. Pourtant, scientifiquement, le mot « aléatoire » change tout : le « contrôlé » n’est pas une ambiance mais un hasard encadré par un plan de sélection rigoureux qui permet de construire mathématiquement des marges d’erreur.
C’est ce qui rend la notion de « représentativité » si exigeante : elle ne peut être revendiquée que si les marges d’erreur découlent scientifiquement du plan de sélection, ce que la méthode des quotas ne peut pas invoquer, en toute généralité. En reprenant une formulation de compromis – « les marges d’erreur… le cas échéant par référence à la méthode aléatoire » – la loi a figé des mots statistiques sans en figer les conditions de validité, laissant croire au public que la marge d’erreur affichée (en général, seulement lors de la première publication) est l’assurance tous risques d’un chiffre qui se veut destin.
En science, il est souvent rassurant de constater que diverses études donnent des résultats « compatibles ». Malheureusement, il peut s’agir d’une hallucination collective !
En 2024, les principaux instituts de sondage dont les travaux étaient relayés dans les médias, donnaient, quelques jours avant le second tour, des projections très éloignées des résultats définitifs.
Ce phénomène est ce que j’appelle une « communauté de biais ». Lorsque plusieurs instituts utilisent des méthodes similaires et des redressements basés sur les mêmes hypothèses (comme le report de voix entre blocs), une erreur commune peut se produire. La stabilité des chiffres n’est alors pas un gage de fiabilité, mais le symptôme d’une confiance collective dans une erreur collective.
Dans le cadre de l’élection présidentielle, le dispositif semble pourtant idéal : on sort des incertitudes liées aux 577 scrutins locaux pour revenir au « sondage pur », tel que défini et strictement contrôlé par la commission. Cependant, il est impératif de comprendre que le contrôle réglementaire assure une transparence démocratique, mais ne garantit en rien une « vérité » statistique. Le malentendu principal réside dans la confusion entre la marge d’erreur théorique et la fiabilité globale.
Lors de l’élection présidentielle de 2012, par exemple, pour une intention de vote de 25 %, les marges d’erreur « théoriques » affichées étaient de l’ordre de 1,8 à 2,7 points (selon le nombre de répondants). Après analyse statistique des écarts des résultats de tous les candidats entre le scrutin et les dernières estimations, elles se situaient en réalité entre 4 et 6 points. Pour exemple, un candidat crédité de 25 % d’intention de vote était essentiellement prévu entre 23 % et 27 % alors que la précision sincère du sondage se situait entre 21 % et 29 %.
Ce décalage s’explique par la nature même de l’erreur totale, qui n’est pas qu’une simple variance (un flou lié à la taille de l’échantillon et sa variabilité), mais peut aussi être un biais (un décalage structurel). Ce biais est alimenté par la vie réelle des sondages : non-réponses, indécisions, modes de collecte ou ajustements méthodologiques plus ou moins assumés.
Lorsque tous les acteurs utilisent des méthodes de redressement et des panels « similaires » (électeurs recrutés essentiellement sur Internet et qui répondent régulièrement aux sondages qui leur sont soumis), ils peuvent produire une histoire cohérente… mais erronée dans la même direction.
Ce constat impose, il me semble, une véritable « hygiène du commentaire » : il faut cesser de considérer les « fourchettes » affichées (lorsqu’elles le sont) comme le curseur permettant de décider si une campagne « stagne », « bouge » ou « bascule ».
À l’approche du double scrutin de 2027 – l’élection présidentielle suivie d’élections législatives – l’enjeu n’est pas seulement de savoir qui « gagnera », mais de définir comment nous acceptons d’être informés (voire influencés). La séquence de 2024 a servi de rappel brutal : un appareil « statistique », aussi sophistiqué soit-il, peut totalement manquer la physionomie d’une assemblée si l’on confond l’intention de vote nationale avec la projection locale en sièges.
Pour l’élection présidentielle de 2027, le défi sera de ne pas se laisser enfermer dans le confort d’un chiffre unique. Le cadre sera « pur » et contrôlé par la Commission des sondages, mais l’expérience de 2012 (et en réalité celle de bien d’autres) nous rappelle qu’une marge d’erreur « théorique » de deux points peut masquer une imprécision réelle de plus de cinq points une fois les biais potentiels intégrés. Il est temps que les médias et le public adoptent un « pacte de sobriété » : privilégier les fourchettes larges et admettre qu’à trois points (voire cinq points) d’écart, rien n’est clair.
Concernant les législatives qui suivront, la vigilance devra être redoublée sur les projections en sièges. Comme l’a souligné la Commission des sondages, ces exercices ne bénéficient d’aucun encadrement méthodologique strict et dépendent de paramètres locaux (offres politiques, désistements) qu’un sondage national ne peut saisir. Continuer à présenter ces projections comme des résultats scientifiques et fiables, c’est entretenir une « confiance collective dans une erreur collective ».
En définitive, mon propos appelle une alliance entre culture statistique et culture civique. La loi de 2016 a ouvert la « boîte noire » en imposant la transparence des notices. Il appartient désormais aux acteurs du débat public de transformer cette transparence en une véritable « hygiène du commentaire ».
Un chiffre n’est pas un destin, c’est une mesure ; et en démocratie, le destin n’appartient qu’au vote, une fois les hypothèses, les méthodes, les estimations et les projections remises à leur juste place.
Et pour les élections municipales ? Dans les grandes villes (Paris, Lyon, Marseille…), les instituts s’appuient le plus souvent sur leurs panels, puis filtrent les répondants pour ne retenir que les personnes inscrites sur les listes électorales de la commune (et, le cas échéant, de l’arrondissement/secteur). La méthode des quotas et les redressements restent les principaux outils statistiques mobilisés pour estimer les intentions de vote. Restons vigilants !
Léo Gerville-Réache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.03.2026 à 16:49
Claire Scopsi, Professeur en sciences de l'information et de la documentation, Conservatoire national des arts et métiers (CNAM)
Il y a encore quelques années, on s’amusait des photos totalement fantaisistes générées par l’IA mais, aujourd’hui, il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.
En 2024, les hypertrucages vidéo (ou deepfakes) ont rejoint la panoplie des escrocs en imitant le visage et la voix d’un dirigeant pour mieux tromper la vigilance de ses employés. Ils s’invitent désormais en politique. Catherine Connolly, candidate à la présidentielle irlandaise, découvre avec stupeur une vidéo virale où elle annonce son retrait de la campagne. L’intelligence artificielle (IA) se prête aux fantaisies des partisans du premier ministre hongrois Viktor Orban pour mieux discréditer Péter Magyar, son principal opposant aux législatives.
Détecter l’artificialité d’une image ou d’une vidéo est devenu un enjeu démocratique et une urgence. Menée par les Gafam et la BBC, la coalition internationale C2PA, composée d’entreprises de technologies, de groupes de presse et de médias, propose un modèle de métadonnées permettant d’identifier la nature et l’origine des contenus du Web.
Les premières promptographies (images générées par IA) étaient célèbres pour leurs aberrations, mains à six doigts ou trombones aussi grands que des gratte-ciels. Mais, comme l’affirme le photographe Niels Ackermann en comparant les performances des générateurs d’images entre 2022 et 2024 : « Il y a deux ans, on ricanait encore en comptant les doigts en trop ou les dents dans les bouches […]. C’est fini ! »
Les progrès de DALL-E, de Midjourney et de leurs émules sont rapides, et il devient presque impossible de distinguer leurs productions des photographies à l’œil nu. Dans le monde de la vidéo, les visages clonés bougent presque comme les originaux, les mouvements de lèvres suivent les textes qu’on leur soumet, le clonage vocal imite les timbres, rythmes et intonations. Les portes s’ouvrent pour de stimulantes créations, mais aussi pour la production de deepfakes toujours plus sophistiqués.
La situation est source de malaise pour les usagers du Web qui redoutent les fake news, tandis que les entreprises de presse et de communication craignent de perdre la confiance de leurs usagers ou de leurs clients si des images artificielles se glissent dans leurs productions.
« Près de 9 consommateurs sur 10 dans le monde veulent savoir si une image a été créée à l’aide de l’IA », c’est ce qu’annonce le rapport « Bâtir la confiance à l’ère de l’IA », consolidé en mai 2024, par l’agence d’images Getty à partir des données collectées auprès des milliers de consommateurs de tous pays. Il rejoint la conclusion de l’enquête Ifop Opinion de mars 2024 : « Neuf Français sur dix seraient favorables à l’imposition d’une mention indiquant l’origine artificielle du contenu sur les deepfakes. »
Le règlement européen sur l’intelligence artificielle (AI Act) entre en application en août 2026. Il consacre son chapitre IV à l’obligation de transparence, c’est-à-dire l’obligation pour les fournisseurs et déployeurs de systèmes de signaler les contenus produits ou modifiés par IA (article 50, items 2 et 4). Il énonce également sous quelle forme cette information doit être disponible en parlant de résultats « marqués dans un format lisible par machine » et d’informations « fournies aux personnes physiques concernées de manière claire et distincte au plus tard au moment de la première interaction ou de la première exposition » (article 50, item 5). L’information doit donc, d’une part, pouvoir être lue et affichée par des logiciels et, d’autre part, être lisible par un humain dès l’affichage du contenu concerné.
En 2021, six entreprises du monde des médias, de l’électronique et de l’authentification des documents numériques (Adobe, Arm, la BBC, Intel, Microsoft et Truepic) fondent la Coalition for Content Provenance and Authenticity (C2PA, Coalition pour la provenance et l’authenticité des contenus). Leur objectif est de rétablir la confiance des marchés dans l’IA en produisant une méthode commune de marquage des fichiers numériques. C2PA promet aux usagers d’afficher la manière dont la photo, la vidéo, le son ou le texte qu’ils consultent a été produit et à quelle date, avec quel logiciel il a été modifié par la suite et la nature des modifications apportées.
Le principe se base sur des métadonnées, c’est-à-dire des informations de toutes sortes concernant un contenu. Par exemple, pour une photo numérique : la date, l’auteur et le lieu d’une prise de vue, le type d’appareil photo utilisé, le nom et la version du logiciel de retouche. Elles sont produites par les applications des éditeurs de contenus, les caméras ou les appareils photo, qu’ils s’appuient ou non sur l’IA. Ces métadonnées, intégrées aux fichiers, sont complétées à chaque nouvelle modification du contenu, même si elle est effectuée avec un autre logiciel. La solution de C2PA repose sur les Content Credentials, un format de métadonnées standard et ouvert, dont les spécifications sont publiées sur le site C2pa.org. Pour résister aux falsifications, ces données sont cryptées par un système de signature numérique qui garantit leur origine.
Mais pour être efficace, le système doit être adopté par le plus grand nombre possible d’éditeurs et de producteurs de contenus afin de marginaliser les fichiers dépourvus de ces métadonnées d’authentification (un peu comme un consommateur qui se détournerait d’un produit qui n’affiche pas de Nutri-Score). Une fois largement diffusés, les Content Credentials agiront aussi comme un label de transparence.
L’enjeu est d’attirer dans la coalition le plus grand nombre d’entreprises influentes, et les résultats sont prometteurs. En 2022, un an après sa création, C2PA compte 200 membres internationaux. En février 2024, Meta, OpenAI et Google rejoignent la coalition… et en intègrent le comité directeur. Du côté des groupes de presse et de communication, Publicis, Springer Nature, Reuters, la RAI, Die Zeit ou The Wallstreet Journal ont suivi la BBC et, fin 2025, France Télévision a annoncé avoir lancé ses essais d’intégration du standard pour l’authentification de ses journaux. En 2025, C2PA affiche une communauté de plus 5 000 membres.
Adobe poursuit depuis 2024 le déploiement des Content Credentials dans ses applications de traitement d’image, dont le célèbre Photoshop et le générateur « du texte à l’image » Firefly. En novembre 2025, OpenAI annonce que les informations d’identification du contenu sont automatiquement appliquées à toutes les images générées par DALL-E 3, GPT-image-1 et le modèle génératif d’audio et de vidéo SORA 2.
La guerre des « outils d’inspection » est lancée. En 2026, dans les smartphones Pixel10 sous Android 8, l’application Google Photo affiche le « Content Credentials pin », « Cr », qui signale la présence des métadonnées d’authentification dans les images téléchargées. La plateforme Adobe Content Authenticity est fonctionnelle en version bêta. Une extension de vérification Lense exclusivement destinée au navigateur Chrome est disponible sur les plates-formes de téléchargement.
Au début de l’année 2026, les tests que j’ai effectués pour illustrer cet article ont été plutôt laborieux : les images comportant les précieuses métadonnées sont encore rares sur le Web. Il faut donc générer une image de test avec DALL-E 3 (intégré à ChatGPT), lequel ne produit les métadonnées C2PA qu’à la condition qu’on le lui demande clairement. Mais ensuite l’outil d’inspection d’Adobe affiche vaillamment les métadonnées et détecte la signature d’Open AI. En revanche, le test effectué avec l’extension Lense pour Chrome a échoué.
Transparence, authenticité et confiance sont les maîtres mots des membres de la coalition C2PA. Pour prometteuse qu’elle soit, l’initiative soulève quelques critiques, tout d’abord techniques : les métadonnées peuvent disparaître lors des manipulations de l’image, c’est un point de fragilité avoué par les membres. On peut craindre également que des fraudeurs simulent le comportement des outils d’inspection pour authentifier abusivement des « fake », ou piratent les métadonnées d’un contenu pour les intégrer à un autre.
Le World Privacy Forum alerte sur le risque d’atteintes à la vie privée. La production non contrôlable des métadonnées peut conduire à diffuser des informations contre le gré de l’auteur du contenu : souhaite-t-il vraiment que ses photos, en circulant sur le Web, indiquent à tous le lieu où il se trouvait au moment de la prise de vue ? D’autant que le recoupement de ces données de provenance accumulées sur un temps long peut constituer un traçage de ses activités. La possibilité pour les éditeurs d’ajouter des métadonnées visant la désignation de groupes militants ou discriminés est également à craindre.
La composition même de la coalition, composée d’entreprises commerciale et gouvernée par les Gafam, constitue un outil d’influence et d’orientation des marchés considérable. La coalition fonctionne dans un entre-soi en proposant les outils sur leurs propres suites logicielles ou plateformes. La complexité d’implémentation du standard peut empêcher les plus petits acteurs de produire les métadonnées. L’effet de label de confiance du Content Credentials pin détournera alors le public de leurs produits et renforcera le monopole des grands groupes. Mais n’est-ce pas l’objectif caché de la coalition ?
Claire Scopsi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.03.2026 à 17:04
Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay
Cécile Asanuma-Brice, Directrice du Mitate Lab. Post Fukushima Studies, Centre national de la recherche scientifique (CNRS)
En mars 2011, la catastrophe de Fukushima bouleversait le Japon. Quinze ans plus tard, les opérations de décontamination ont progressé, mais le retour à la normale reste incertain. Comment fixer le curseur de ce que serait un niveau de décontamination suffisant ? Les populations déplacées reviennent-elles vivre dans les villages évacués ? L’enjeu n’est plus seulement environnemental, il est également social, et révèle des fractures territoriales profondes.
C’est une date désormais bien ancrée dans les mémoires. Le 11 mars 2011, un tsunami suivi d’un séisme a dévasté 600 kilomètres de côtes au nord-est du Japon. Quelques jours plus tard, plusieurs explosions ont soufflé les enceintes de confinement de trois des six réacteurs de la centrale n°1 de la préfecture de Fukushima.
Les émissions radioactives qui s’ensuivirent furent rabattues par la neige sur les sols de la région, formant un panache radioactif qui a rendu nécessaire l’évacuation de plus de 160 000 habitants, selon les chiffres officiels.
Où en sont aujourd’hui les opérations de décontamination ? Quel bilan retenir de la gestion de la crise environnementale et sociale par les autorités japonaises : a-t-elle fonctionné ? Les habitants déplacés ont-ils pu revenir chez eux ? État des lieux, quinze ans après la catastrophe.
Parmi les produits radioactifs libérés lors de l’explosion de l’enceinte des réacteurs et qui subsistent sur le long terme dans l’environnement après leur émission, on retrouvait principalement deux isotopes radioactifs du césium :
le césium 134, dont la demi-vie, c’est-à-dire la durée nécessaire pour que la moitié des atomes se désintègrent, est de deux ans,
et le césium 137, dont la demi-vie est de trente ans.
On estime généralement qu’il faut 7 à 10 demi-vies pour qu’un isotope radioactif ait suffisamment décru pour que sa présence soit devenue négligeable, autrement dit, pour que la radioactivité résiduelle ne soit plus que de 1 à 7 % de son niveau initial.
C’est déjà quasiment le cas pour le césium 134, cette durée étant, pour ce radioisotope, de quatorze à vingt ans. Toutefois, il faudra encore patienter pour ce qui est du césium 137, le temps pour atteindre cet état étant de deux cent dix à trois cents ans. C’est sur ce dernier que se concentrent désormais toutes les attentions.
Le problème ? Le césium radioactif se fixe presque de façon presque irréversible sur les argiles des sols. Seule l’action humaine peut l’en déloger.
En 2011, la surface du territoire japonais la plus contaminée par le césium 137 – c'est-à-dire susceptible d’être décontaminée au vu des débits de dose radioactifs significatifs (supérieurs à 2 millisieverts par an) auxquels les habitants étaient à l’époque exposés– couvrait une surface comparable à celle de la Corse, soit environ 9 000 kilomètres carrés.
À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs
Dans la région de Fukushima, où les paysages sont montagneux et majoritairement recouverts de forêts, les autorités japonaises ont mis en œuvre une vaste stratégie de décontamination. Celle-ci visait à décaper la surface des rizières et des autres sols cultivés situés dans les fonds de vallées et ceux des zones résidentielles.
Ces opérations très coûteuses – l’ensemble des coûts de remédiation, incluant la décontamination, était estimé par la Cour des comptes japonaise à 44 milliards d’euros en 2023 – ont permis de faire baisser les concentrations de césium 137 de 80 % en moyenne dans les sols concernés par la décontamination.
Dans les rivières qui drainent les territoires contaminés, les niveaux de radioactivité des sédiments qui y transitent ont également fortement baissé. Cette baisse est désormais d’environ 90 %, si on compare les niveaux de césium 137 mesurés en 2011 et dix ans plus tard.
Depuis lors, ces niveaux restent stables. Ceci peut s’expliquer par l’apport pérenne de radioactivité des forêts, qui n’ont pas été décontaminées. En effet, celles-ci couvrent 75 % de la surface de la zone affectée par le panache radioactif.
Les barrages de la région qui sont utilisés pour irriguer les rizières de la plaine côtière stockent d’ailleurs une quantité importante de sédiments radioactifs. Dans certaines conditions, le césium radioactif peut ainsi être remobilisé dans la colonne d’eau, et il peut alors être réabsorbé par les organismes vivants, par exemple les poissons.
À lire aussi : Fukushima : 12 ans après l’accident, une décontamination des sols au bilan mitigé
Plus d’une décennie après l’accident, le césium radioactif retombé sur les forêts et intercepté par la canopée des arbres a été transféré dans la partie minérale des sols. Depuis le sol, une partie de ce césium peut alors être réabsorbée par les arbres et les plantes par l’intermédiaire des racines, ce qui rend impossible la commercialisation du bois dont la teneur en césium dépasse la limite autorisée.
Ces valeurs limites sont également souvent dépassées dans les champignons, le gibier et les poissons des rivières qui traversent ces forêts. Les autorités évoquent donc désormais la possibilité de couper les forêts afin d’achever la décontamination.
Pourtant, cette option interroge : les forêts se trouvent en effet sur les versants les plus pentus et l’érosion que la coupe des arbres engendrerait pourrait être massive, surtout en cas de typhon. Comme lors des événements cévenols en France, ces épisodes pluvieux intenses généreraient glissements de terrain, crues et débordements.
Ils occasionnent au passage une recontamination de certaines zones, en bas de versants et dans les vallées, qui avaient pourtant déjà été décontaminées à grands frais il y a quelques années. À ce risque, viennent s’ajouter la destruction des écosystèmes, la dégradation de la biodiversité et la destruction des habitats de nombreuses espèces.
En plus de la reconstruction et de la gestion des forêts, un autre problème se pose pour les autorités japonaises. Il s’agit de la redistribution sur le territoire japonais des terres issues de la décontamination, jusqu’ici stockées autour de la centrale, afin de rendre les terrains de stockage à leur propriétaire d’ici 2045.
Reste l’enjeu politique du retour des habitants dans les zones évacuées. Celles-ci concernaient 12 communes, dont certaines parties ont été progressivement rouvertes à l’habitat depuis 2017.
Sept zones de reconstruction prioritaires ont été délimitées dans la zone dite « difficile au retour », qui comprend les zones les plus contaminées après l’accident. La levée de l’ordre d’évacuation pour ces communes a engendré une suspension des soutiens financiers jusque là octroyés aux habitants déplacés, afin de les inciter au retour. Mais contrairement à ce qui était prévu par les autorités, 80 % des anciens habitants de ces communes ont exprimé leur intention de ne pas rentrer.
Pendant longtemps, la contamination encore élevée présente dans l’environnement leur a donné raison. Aujourd’hui toutefois, bien que des hotspots de contamination soient toujours observés, c’est la destruction des anciens lieux de vie qui en est la cause.
La reconstruction s’accompagne de la destruction de villages entiers, y compris des bâtiments datant parfois de plus d’un siècle. Les politiques de décontamination ont profondément modifié le paysage par la coupe des arbres ou l’arasement de montagnes. En outre, les autres membres de la famille ou les anciens voisins ont déménagé. En somme, ce ne sont pas seulement des villages et des lieux de vie qui ont été détruits, mais des communautés entières.
À ce défi déjà colossal vient s’ajouter l’absence des services territoriaux dans ces régions, et principalement du secteur hospitalier, qui fait cruellement défaut à une population vieillissante.
Enfin, quinze ans après, certains résidents sont décédés, alors que d’autres ont tout simplement refait leur vie ailleurs.
Face à ce constat, le gouvernement japonais a décidé de financer le retour de nouvelles populations, pour lesquelles des villes nouvelles sont construites, aux dépens de la culture originelle des lieux.
Les nouveaux habitants se voient ainsi proposer des pavillons ou appartements dans des lotissements de ville nouvelle, avec les caractéristiques des espaces produits par la ville globale : homogénéisation des espaces, matériaux de construction légers, artificialisation des sols, en somme, une perte d’identité des lieux.
Pour ce faire, les autorités jouent la carte de l’incitation financière. L’habitat y est non seulement quasiment gratuit, mais chaque ménage reçoit également une somme d’argent conséquente pour venir habiter dans l’ancienne zone évacuée. À ce soutien financier s’ajoute un revenu complémentaire si les nouveaux venus sont capables de justifier d’un emploi dans la zone.
Outre la pollution potentielle, cette politique (construction de villes nouvelles à l’emplacement des anciens villages et implantation de populations venues d’ailleurs) conduit à l’effacement de l’histoire de villages séculaires. De fait, elle ne rencontre pas, pour l’instant, le succès escompté. La principale commune de la zone évacuée, Namie, compte aujourd’hui une population qui ne représente que 15 % de celle qui y vivait avant l’accident nucléaire. De même, la commune d’Iitate plafonne à 33 %, 23 % pour celle de Tomioka, 9 % pour celle d’Okuma et 3 % pour celle de Futaba. Ces niveaux de populations sont trop faibles pour faire tourner convenablement une économie locale.
Par ailleurs, les nouveaux habitants correspondent principalement à des personnes qui se trouvaient dans des situations de vulnérabilité sociale importante en provenance de différentes régions du Japon. Elles se retrouvent ainsi regroupées dans ces nouveaux quartiers.
Quelles seront les conséquences d’une telle ségrégation ? L’avenir le dira. Ces éléments montrent en tout cas que les traces les plus durables laissées par l’accident nucléaire de 2011 à Fukushima ne seront pas seulement d’ordre environnemental : elles seront aussi sociales.
Ces sujets, ainsi que le démantèlement total de la centrale, pour lequel la durée nécessaire est estimée à quarante ans par le gouvernement japonais, continue de faire l’objet de recherches interdisciplinaires, telles que celle que nous menons avec le laboratoire international MITATE Lab (CNRS, CEA, Université de Fukushima).
À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire
Olivier Evrard a reçu des financements de l'ANR (TOFU_ANR-11-JAPN-0001), des Investissements d'Avenir de l'Etat français (AMORAD_11-RSNR-0002), du CNRS (IRP et IRL MITATE, NEEDS, EC2CO) et du CEA (via des financements de thèse notamment) pour mener ses recherches à Fukushima depuis 2011.
Cécile Asanuma-Brice, chercheur CNRS, est directrice du Laboratoire international Mitate lab. Post-Fukushima studies. Elle a reçu des financements divers depuis 2011 pour mener ses travaux pluridisciplnaire sur la gestion de la catastrophe nucléaire (ANR, NEEDS, PEPS-CNRS, etc.).
10.03.2026 à 17:04
Zeling Zhong, Enseignante-Chercheuse en Innovation Digitale & Marketing, EDC Paris Business School
GPT-4.5 a réussi à convaincre 73 % des évaluateurs qu’il était humain lors d’un test rigoureux en mars 2025. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.
Vous échangez avec le service client de votre fournisseur d’électricité via un chat en ligne. Les réponses arrivent instantanément : précises, empathiques, légèrement familières et portées par un ton que vous identifiez comme féminin. Pour tester votre interlocutrice, vous posez une question piège et votre interlocutrice répond avec humour. Ai-je échangé avec une véritable conseillère… ou avec un algorithme d’IA sophistiqué ?
Vous n’êtes pas les seuls à éprouver ce doute ! Presque la moitié des utilisateurs de chatbots reconnaissent avoir déjà confondu un agent conversationnel virtuel avec un être humain. Jamais la frontière entre l’humain et la machine n’a été aussi floue.
Mes travaux de recherche récents examinent les mécanismes d’adoption de ces outils. Il est indéniable que nous sommes en train d’entrer dans une ère marquée par ce que l’on pourrait appeler une confusion ontologique, c’est-à-dire une ère où les frontières entre le naturel et l’artificiel deviennent de plus en plus floues pour l’être humain qui a du mal à les distinguer clairement.
À lire aussi : Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle
Or, savoir à qui l’on parle ne relève plus uniquement d’une simple curiosité technologique : c’est devenu un enjeu de cybersécurité, de confiance et de bien-être psychologique.
Ne pas distinguer un humain d’un chatbot peut exposer à une confiance excessive dans des réponses qui peuvent être inexactes et à la divulgation imprudente d’informations à caractère personnel. Pour le grand public, savoir identifier un chatbot, comprendre ses limites et évaluer la qualité de ses réponses devient une compétence essentielle pour utiliser ces outils en connaissance de cause.
Aujourd’hui, plus d’un milliard de personnes dans le monde utilisent des chatbots. Il est prévu que ce marché atteigne 60,26 milliards de dollars (51,77 milliards d’euros) d’ici à 2030.
Le secteur de la santé, notamment en ce qui concerne la santé mentale, est témoin de l’émergence des chatbots IA de type compagnon qui sont programmés pour simuler la compassion. Savoir que l’on parle à un algorithme d’IA favorise le maintien d’une distance critique indispensable vis-à-vis des recommandations formulées. Par exemple, si une personne exprime un profond mal-être, un chatbot pourra proposer des exercices de relaxation, mais ces réponses standardisées reposant sur des modèles statistiques ne remplacent pas l’évaluation clinique individualisée et le suivi d’un professionnel de santé.
À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?
Dans le monde des affaires, les entreprises recourent massivement aux chatbots IA afin de réduire les dépenses opérationnelles. La responsabilité juridique peut être engagée dans le cas où un chatbot IA émet une promesse commerciale erronée en raison d’un dysfonctionnement ou d’une hallucination, par exemple, si un chatbot promet par erreur une remise inexistante ou un remboursement sans condition. Qui est responsable de cette promesse ? Le concepteur du chatbot IA, l’entreprise qui l’utilise, ou tout autre acteur impliqué dans sa conception ou sa mise en œuvre ? La clarté concernant l’identité de l’émetteur est essentielle pour établir les fondements du contrat qui définit les responsabilités de chaque partie impliquée.
À l’échelle sociétale, savoir distinguer l’humain des chatbots IA est essentiel pour préserver l’intégrité du débat public. Identifier la nature de son interlocuteur permet d’éviter de confondre un contenu automatisé avec une prise de position authentiquement humaine. Par exemple, lors d’une consultation publique en ligne, un chatbot clairement identifié peut fournir rapidement des informations factuelles sur une réforme sans prétendre porter la voix des citoyens. Les utilisateurs du service public numérique font davantage confiance à un chatbot lorsque celui-ci est clairement identifié comme tel.
Avant tout, pour comprendre son fonctionnement, il faut regarder l’architecture des « transformers », la structure technique derrière la plupart des chatbots modernes. Ces « transformers » sont capables de prédire le mot suivant une suite de mots donnée, grâce aux statistiques : ils donnent juste le mot suivant le plus probable. Savoir que l’on parle à un chatbot IA, c’est se rappeler qu’il ne comprend pas le sens, qu’il n’y a pas de pensée derrière la conversation : le chatbot ne fait que choisir les mots qui ont statistiquement gagné à l’issue de ses calculs.
À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage
Voici quelques astuces de détection utiles pour savoir si l’on parle à un chatbot IA.
Posez des questions qui nécessitent des détails personnels ou des souvenirs à long terme que le chabot IA ne possède pas, par exemple « Tu te rappelles ce que je t’avais dit sur mon premier stage ? » Un être humain serait en mesure de mobiliser un souvenir précis, tandis qu’un chatbot IA ne pourrait que simuler une continuité. Autre test possible : faites référence à une expérience commune implicite, par exemple « On avait finalement choisi quel restaurant déjà ? » Un être humain pourra se souvenir du lieu exact, tandis qu’un chatbot IA tendra à proposer une réponse plausible sans véritable souvenir.
Posez des questions qui permettent de tester les limites du raisonnement de chatbot IA avec des situations absurdes, par exemple : « Explique-moi pourquoi il est impossible d’expliquer cette impossibilité. » Un humain est davantage susceptible de résister à la demande en exprimant un inconfort par rapport à la question posée. Le chatbot IA raisonne comme si la situation était cohérente, même quand elle ne l’est pas, l’action requise demeure irréalisable. Autre exemple : « Décris précisément la couleur d’un triangle invisible. » Un humain soulignera spontanément l’incohérence de la consigne, tandis qu’un chatbot IA cherchera souvent à formuler une explication théorique comme si la question avait un sens pleinement exploitable.
Posez des questions sur des événements récents hyperlocalisés avec une opinion nuancée, par exemple : « En tant que riverain, que penses-tu de la piétonnisation hier de cette rue ? » Les chatbots IA sont entraînés sur des bases de données figées à une date précise. Même si certains sont connectés à Internet, ils ont souvent du mal à commenter les actualités hyperlocales très récentes avec une perspective nuancée. Autre exemple : « Comment as-tu vécu la coupure d’électricité dans notre quartier hier soir ? » Un habitant pourra évoquer des détails précis comme les discussions avec les voisins et l’ambiance dans la rue, tandis qu’un chatbot restera dans des généralités sans véritable ancrage local.
Mes travaux récents, au-delà des astuces de détection, invitent à repenser notre relation avec ces interlocuteurs numériques. Notre étude montre que la divulgation de l’identité, c’est-à-dire l’annonce par un chatbot IA de sa nature artificielle, ne réduit pas forcément la satisfaction de l’utilisateur si la qualité informationnelle du chatbot IA est au rendez-vous. La loi européenne, par le biais de l’IA Act, va imposer cette transparence.
À l’avenir, la question sera donc plutôt « Comment optimiser la collaboration avec cette entité que je sais être artificielle ? » Pour les entreprises, il faut se concentrer sur ce qui compte vraiment aux yeux des utilisateurs grand public, c’est-à-dire la performance du chatbot IA permettant de fournir des réponses pertinentes, fiables et de qualité, plutôt que de se contenter de déclarations éthiques génériques ou d’avatars anthropomorphiques attrayants.
Zeling Zhong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.03.2026 à 17:08
Cécile Arnould, Éthologue, Inrae
Un poussin âgé de seulement quelques jours est déjà capable de reconnaître sa mère et d’autres poussins avec lesquels il a été en contact. Deux exemples parmi tant d’autres qui démontrent des capacités cognitives qui pourront vous surprendre. Pour aller plus loin, nous vous proposons de lire un extrait de l’ouvrage Bien-être et comportement des poules domestiques, de Cécile Arnould, publié aux éditions Quae.
Les poules domestiques, comme beaucoup d’autres espèces d’oiseaux, sont capables de mémoriser des informations très précocement. Les embryons peuvent apprendre les caractéristiques des odeurs ou des vocalisations de leur mère. Les poussins âgés de 24 heures reconnaissent leur mère. Ils font la différence entre celle-ci et une autre mère avec laquelle ils n’ont pas été en contact auparavant. Élevés en présence d’un autre poussin, ils font la différence entre ce dernier et un poussin non familier. Dès cet âge, ils peuvent aussi mémoriser les caractéristiques d’un objet.
En effet, les poules domestiques ont une caractéristique propre aux oiseaux nidifuges. Les oiseaux nidifuges sont ceux qui, à l’éclosion, sont complètement développés et qui peuvent donc gambader tout de suite loin de leurs parents. À la différence des jeunes mésanges, qui restent bien au chaud dans leur nid ; ce sont des oiseaux nidicoles. Chez ces espèces nidifuges, on observe chez les poussins un phénomène appelé « empreinte ». Le poussin s’attachera à la première chose avec laquelle il sera en contact à l’éclosion. L’empreinte se met en place entre 1 et 4 jours, période durant laquelle la mère reste sur son nid après l’éclosion de sa couvée. Elle est naturellement dirigée vers sa mère, mais, en l’absence de mère, elle peut être dirigée vers un objet. Des poussins ayant développé une empreinte sur un objet se blottiront contre cet objet plutôt que contre un objet différent, que ce soit par sa forme, sa couleur, etc. L’empreinte peut aussi être dirigée vers une personne ; vous avez peut-être déjà vu Konrad Lorenz (1903-1989), éminent éthologiste ayant décrit ce phénomène chez des oies, suivi d’une ribambelle d’oisons. Lorsqu’il y a empreinte, la mémoire qui se forme possède des caractéristiques différentes de la mémoire classique. Elle se crée plus rapidement et dure plus longtemps.
Au-delà de ce phénomène particulier, dès 2 à 5 jours d’âge, les poussins se souviennent de tâches spatiales qu’ils ont apprises 24 heures auparavant. Par exemple, s’ils ont appris à faire un détour pour rejoindre des congénères, ils se rappellent le chemin qu’ils doivent emprunter. Les poussins sont par ailleurs capables de raisonnements simples. Ils ont la capacité à savoir qu’un objet existe même s’ils ne le voient pas complètement ou pas du tout. On parle de phénomène de permanence des objets. Cette capacité ne se développe qu’après quelques mois chez les enfants. Nous venons de voir qu’un poussin ayant développé une empreinte sur un objet ira se blottir contre lui. Eh bien, ce comportement persistera même si une partie de cet objet est partiellement cachée. Et, mis en présence de deux parois opaques identiques qui peuvent cacher cet objet, les poussins choisiront d’aller vers la paroi où ils ont vu l’objet disparaître complètement. De plus, si ces parois sont inclinées de telle sorte que l’une soit de hauteur et de largeur adéquates pour cacher la totalité de l’objet (paroi A) et l’autre pas (paroi B), les poussins, en l’absence de l’objet, se dirigeront vers la paroi formant un écran compatible avec le fait que l’objet puisse être caché derrière : la paroi A. Ces résultats signifient que les poussins se représentent l’objet même s’ils ne le voient pas ; ils ont une représentation mentale de ce dernier. Ils sont, par ailleurs, capables d’effectuer un raisonnement à partir de cet objet, c’est-à-dire de comparer la taille de cet objet à la taille des cachettes.
Il faut savoir que la poule domestique est une espèce territoriale et sociale avec une organisation hiérarchique. Cela signifie qu’il existe des relations de dominance et de subordination au sein des groupes, chez les coqs comme chez les poules. L’individu A domine l’individu B, qui domine l’individu C, etc. De temps en temps dans cette hiérarchie linéaire, plusieurs individus (par exemple C, D et E) vont avoir le même rang social. Aucun ne dominera les autres. Il suffit en général de quelques jours, pendant lesquels les individus du groupe s’affrontent (coups de bec, combats, poursuites), pour que la hiérarchie se mette en place. Par la suite, les individus connaissent leur place dans la hiérarchie. Les affrontements laissent la place à des menaces ou à des évitements. Les individus mémorisent les caractéristiques des autres individus avec lesquels ils vivent. Les poules domestiques sont capables de faire la différence entre des individus familiers, avec lesquels elles vivent ou qu’elles ont déjà rencontrés, et des individus inconnus. Elles reconnaissent chaque individu de leur groupe à condition que ce groupe ne soit pas trop grand (jusqu’à au moins une trentaine d’individus, voire peut-être cent).
Les poules peuvent aussi apprendre en observant les autres. Des poules juvéniles (d’environ 2 mois) ayant observé des congénères consommer un aliment qu’elles ne connaissent pas en mangeront une plus grande quantité, et mettront moins de temps pour commencer à s’alimenter avec, que celles n’ayant pas eu cette expérience. Des poussins de quelques jours apprennent où trouver un aliment après avoir observé un congénère. De même, après avoir observé un congénère picorer une bille recouverte d’une substance amère, si une bille similaire en apparence, mais non recouverte de cette substance amère, leur est présentée 24 heures plus tard, ils ne la picoreront pas.
Curieusement, une étude montre que les poules adultes apprennent plus vite une tâche d’association, où il faut picorer un bouton pour obtenir une récompense alimentaire, en voyant faire une poule dominante qu’une poule subordonnée. Et ce n’est pas lié à une différence de compétence entre les poules dominantes et subordonnées, les premières n’apprennent pas plus vite que les autres. Il est probable que cet effet soit plutôt le résultat d’une attention plus soutenue envers les individus dominants qu’envers les autres membres du groupe. Les poules peuvent apprendre à donner des coups de bec sur des boutons ou des écrans pour obtenir une récompense. Cette capacité a largement été utilisée, notamment dans les années 1970-1980, pour tester la motivation des poules à accéder à des perchoirs, des espaces de vie plus grands, des substrats pour effectuer des bains de poussière lorsqu’elles avaient été élevées en cage sur un sol grillagé. Ces travaux ont contribué à démontrer quels étaient les besoins des poules domestiques.
Cécile Arnould est l'autrice de « Bien-être et comportement des poules domestiques » dont cet article est un extrait.
04.03.2026 à 16:23
Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers
Dominic Stratford, Professor of Archaeology, University of the Witwatersrand
What did the face of our ancestors look like 3 million years ago? Meet the reconstructed face of “Little Foot” – the most complete biological Australopithecus specimen that ever existed.
What did the face of one of our ancestors look like more than 3 million years ago? Our international team has answered this question by virtually reconstructing the facial fragments of Little Foot, the most complete Australopithecus skeleton yet discovered. This reconstruction sheds light on the influence of the environment on how our face evolved. Our findings have just been published in the Comptes Rendus Palevol journal, and the new 3D face of Little Foot can be explored online on the MorphoSource platform.
The search for human origins has never been more fruitful, with fossil discoveries pushing back the appearance of the earliest humans (members of the genus Homo) to 2.8 million years ago, and the development of cutting-edge methods for analysing these remains such as recovering genetic information from fossils over 2 million years old.
Yet, while our knowledge of extinct human species grows with each discovery, the story of our ancestors before the first humans appeared remains blurry. It is during this pivotal period that the traits defining our humanity emerged, enabling our genus’ evolutionary success.
Although the identity of our direct pre-Homo ancestor is far from resolved, one fossil group plays a central role in this search: Australopithecus. This genus, to which the famous “Lucy” belongs (discovered 50 years ago in Ethiopia), inhabited much of Africa and survived for over 2 million years. Australopithecus is known from many fossil remains, but often these are highly fragmentary, isolated, and have sometimes been distorted over the millions of years they have been buried. Notably, only a handful of skulls preserve nearly the entire face, a part of our anatomy that has profoundly shaped who we are today.
Through digestive, visual, respiratory, olfactory and non-verbal communication systems, the face is at the heart of interactions between individuals and their physical and social environments.
Significant changes occurred in the facial region throughout human evolution, with most structures generally becoming less robust. However, the factors driving these changes remain unclear. Were they caused by shifts in diet, social behaviour, or both? Only the discovery of more complete skulls can clarify this debate, and this is why the skull of Little Foot is crucial.
South Africa has been and remains a crucial region for researching into human origins. A century ago, the iconic “Taung Child” was published in Nature as a representative of a new African branch of humanity, Australopithecus. While scientific attention had previously focused on Eurasia, this discovery inspired decades of exploration and major finds across Africa. In particular, South Africa saw a proliferation of palaeontological sites in a region now UNESCO-listed and known as the “Cradle of Humankind.” Among these, Sterkfontein has proven exceptionally rich in fossils, many attributed to the hominin genus Australopithecus, and including numerous remarkably preserved specimens. But it was in 1994 and 1997 that Sterkfontein yielded its most spectacular find: the skeleton of Little Foot, over 90% complete, and the oldest human ancestor found in Southern Africa. To date, it is the most complete Australopithecus skeleton ever discovered, far surpassing Lucy, of which only 40% of the anatomy is preserved.
Our team has been studying this skeleton since its complete excavation concluded in 2017. The skull, in particular, has been the focus of our attention, as it is relatively complete, preserving all parts of the head – the cranium and mandible. However, 3.7 million years of burial underground have fragmented and displaced parts of its fossilised face. This process is especially visible in the forehead and eye sockets (orbits), making it impossible to quantitatively analyse these informative areas. Given the exceptional and unique nature of this fossil, we decided to harness the most recent technological advances in imaging to restore the face of Little Foot.
Creating a digital copy of Little Foot was essential to allow the virtual isolation and repositioning of the fragments without damaging the original skull. However, conventional X-ray scanning technologies have limitations. Through burial and fossilisation process, cavities were created in Little Foot’s skull as soft tissues disappeared and filled with sediment. As a result, X-rays struggle to penetrate this extremely dense sedimentary matrix, limiting image contrast and quality. After several unsuccessful attempts, we turned to a more powerful alternative: synchrotron radiation scanning. A synchrotron is a high-energy particle accelerator used to produce ultra-high-resolution images (at micron or even sub-micron scale).
With this in mind, we took Little Foot’s skull to England for scanning at the I12 beamline of the Diamond Light Source synchrotron. In the summer of 2019, Little Foot made its first journey outside Africa, carefully escorted across the world and housed in a secure vault during its stay in the UK.
Several days were required to scan the entire skull at a resolution of 21 microns. The exceptional images generated revealed intimate details of Little Foot’s anatomy, and also provided the necessary data for facial reconstruction. However, the high quality of the data came at a computational cost: over 9,000 images were generated, representing terabytes of information to process. To virtually isolate the fragments, these images were processed using the supercomputer at the University of Cambridge (England). Once rendered in 3D, the fragments were repositioned according to their anatomical location, and missing parts were recreated to finally restore the complete face of Little Foot.
The size and shape of Little Foot’s orbits, previously obscured by displaced fragments, are among the most striking features of our reconstruction. In primates, the orbital region is heavily influenced by functional (visual) and behavioural (ecological) adaptations. Little Foot’s proportionally large orbits compared to other hominins suggest a strong reliance on sensory information, likely for foraging. This hypothesis is supported by a previous study showing that its visual cortex was more developed than that of modern humans.
The second major result of this study has implications for our understanding of the relationships between Australopithecus groups living in Africa between 4 and 2 million years ago. Although the comparative sample is limited, it includes specimens from both East and South Africa. Surprisingly, Little Foot, from a South African site, shows strong similarities with East African specimens. These similarities may indicate that Little Foot shared close ancestors with East African populations, while its probable descendants in South Africa later developed distinct anatomy through local evolution.
While the face provides valuable insights into our ancestors’ adaptations to their environment, the rest of Little Foot’s skull will offer further key elements for understanding our evolutionary history. Notably, the braincase, affected by “plastic” deformation, will require similar work to reconstruct and explore the neurological features of this fossil group.
This research was supported by the Agence Nationale de la Recherche, the Centre National de la Recherche Scientifique, the Claude Leon Foundation, the DST-NRF Center of Excellence in Palaeosciences, the French Institute of South Africa, Diamond Light Source, and the ISIS facility of the Science and Technology Facilities Council (STFC).
Dominic Stratford est membre de organisation: Department of Anatomical Sciences, Renaissance School of Medicine, Stony Brook University, Stony Brook, NY, 11794, USA Funding: Already stated by Dr Beaudet
04.03.2026 à 11:55
Frédéric Leone, Professeur des Universités, Géographe des risques et des catastrophes "naturelles", Volcanographe, Cartographe, Université Paul Valéry – Montpellier III

La Méditerranée est souvent perçue comme peu exposée au risque de tsunami. Pourtant, l’histoire et les modélisations récentes montrent que des vagues destructrices ont déjà atteint les côtes françaises et pourraient le faire à nouveau. Les résultats d’un projet mené sur la Métropole Nice Côte d’Azur montrent pourquoi l’anticipation et l’évacuation préventive restent les seuls moyens réellement efficaces de protection.
Les tsunamis, anciennement dénommés raz-de-marées en France ou maremoti en Italie, sont parmi les phénomènes naturels les plus destructeurs. Déclenchés par des séismes, des glissements sous-marins ou des éruptions volcaniques, ils se propagent rapidement sur de longues distances avant de libérer leur énergie au voisinage des côtes, sous forme de submersions brutales et de courants extrêmement puissants.
De quelques centimètres à plusieurs mètres de hauteur, cette submersion se caractérise généralement par plusieurs trains d’ondes et les premières vagues ne sont pas forcément les plus grosses. La vitesse du courant est telle que la pression exercée sur les infrastructures littorales peut atteindre plusieurs tonnes au mètre carré.
À l’échelle mondiale, ils ont provoqué depuis 1970 plus de 250 000 décès, notamment lors des catastrophes du 26 décembre 2004 dans l’océan Indien et du 11 mars 2011 au Japon.
Dans l’imaginaire collectif, le tsunami reste associé au Pacifique ou à l’océan Indien. En Méditerranée, il est souvent perçu comme marginal. Cette représentation est trompeuse. L’Unesco, en charge de la prévention de ce risque au niveau mondial, a déclaré en juin 2022 que :
« Les statistiques montrent que la probabilité d’une vague de tsunami de plus d’un mètre en Méditerranée dans les trente prochaines années est proche de 100 %. »
Après le Pacifique, c’est dans ce bassin que l’on recense le plus grand nombre de tsunamis historiques, dont plusieurs ont touché les côtes françaises.
Selon les données disponibles, une vingtaine d’événements ont été signalés sur le littoral méditerranéen français entre le XVIᵉ siècle et le début des années 2000, avec des hauteurs de vagues parfois supérieures à deux mètres.
Les sources des tsunamis méditerranéens peuvent être locales ou lointaines. Dans certains scénarios, le temps d’arrivée des premières vagues peut être inférieur à dix minutes, notamment en cas de glissement sous-marin ou de séisme proche de la côte, comme en mer de Ligurie entre la Corse et les côtes italiennes. À l’inverse, des tsunamis générés plus loin de l’Hexagone, par exemple au niveau de la marge nord maghrébine, peuvent atteindre la côte d’Azur en moins de 90 minutes.
Le séisme de Boumerdès (Algérie) du 21 mai 2003 a ainsi provoqué des perturbations sur l’ensemble du littoral méditerranéen français. Une enquête de terrain a montré que huit ports de plaisance de la Côte d’Azur avaient connu des baisses importantes du niveau de la mer (de 50 cm à 1,5 m), des purges de bassins, de forts tourbillons et courants, des embarcations endommagées, compatibles avec des phénomènes de résonances portuaires. Les effets ont été observés sur le littoral azuréen une heure et quart après le séisme.
D’origine plus locale, le tsunami déclenché le 16 octobre 1979 par l’effondrement sous-marin d’une partie du chantier du nouveau port de commerce de Nice (Alpes-Maritimes), adjacent à l’aéroport, a causé la mort de huit personnes et des dégâts importants à Antibes, à Cannes et à Nice. Le phénomène a été observé à Antibes durant une trentaine de minutes.
Un autre scénario pouvant prendre naissance au plus proche des côtes est celui du tsunami d’origine sismique survenu en mer de Ligurie, le 23 février 1887, à la suite d’un séisme sous-marin de magnitude de 6,5 à 6,8. Les témoignages de l’époque relatent un retrait brutal de la mer d’environ un mètre à Antibes et Cannes, laissant à sec des bateaux de pêche, avant l’arrivée d’une vague atteignant près de deux mètres, venue recouvrir les plages.
Ces événements rappellent que l’effet de surprise peut être total, en particulier lorsque les délais sont très courts. Dans ces conditions, les dispositifs d’alerte classiques montrent leurs limites. La capacité des populations à évacuer rapidement devient alors déterminante.
Depuis juillet 2012, la France dispose d’un système national d’alerte aux tsunamis, opéré par le Centre d’alerte aux tsunamis (Cenalt), en lien avec le dispositif international coordonné par l’Unesco en Méditerranée. Ce système permet de détecter rapidement les séismes potentiellement tsunamigènes et de transmettre une alerte en moins de quinze minutes auprès du centre opérationnel de gestion interministérielle des crises (Cogic), et des centres d’alerte étrangers.
C’est ensuite à la charge des autorités de diffuser les messages d’alerte aux populations, en particulier au moyen de la plateforme FR-Alert qui permet d’envoyer des notifications sur les téléphones portables des personnes présentes dans la zone de danger.
Toutefois, ce dispositif global ne couvre que les tsunamis d’origine sismique lointaine et reste peu efficace face aux tsunamis locaux ou liés à des glissements sous-marins, pour lesquels le temps d’arrivée du tsunami sur les côtes peut être inférieur au délai d’alerte. C’est la raison pour laquelle il est important de sensibiliser les populations riveraines à la détection des signes précurseurs : le séisme ressenti, les mouvements anormaux de la mer, le plus souvent un retrait précédant l’arrivée du tsunami, mais pas toujours.
Sur l’ensemble des côtes méditerranéennes françaises, une zone terrestre à évacuer a été définie par les services de l’État et l’Université de Montpellier Paul-Valéry, en croisant altitude, distance à la mer et données historiques. Elle correspond à la portion littorale dont l’altitude est inférieure à 5 mètres et dont la distance par rapport à la mer est inférieure à 200 mètres. Le long des entrées fluviales cette distance est étendue à 500 mètres par rapport à l’embouchure.
En incluant la Corse, cela concerne 1 700 km de côtes, 187 communes de Méditerranée française, et au moins 164 000 résidents. En pleine saison estivale il faut également considérer une estimation de près de 835 000 usagers des plages à évacuer en cas de tsunami.
La Métropole Nice Côte d’Azur concentre de nombreux facteurs de vulnérabilité : urbanisation dense, forte attractivité touristique, plages très fréquentées. Nos travaux de photo-interprétation et de modélisation ont permis d’estimer la présence simultanée de plusieurs dizaines de milliers de personnes dans la zone à évacuer lors des périodes de forte fréquentation (entre 10 000 et 87 000 personnes sur les plages, suivant la saison et l’heure).
Face à un tsunami, l’évacuation est le seul moyen de protection efficace. L’expérience internationale montre que des évacuations rapides et bien préparées peuvent sauver l’immense majorité des populations exposées. Ces évacuations réactives ont, par exemple, permis de sauver 96 % des habitants du littoral japonais lors du grand tsunami de la côte du Tōhoku du 11 mars 2011.
À Nice Côte d’Azur, une stratégie globale d’évacuation a été élaborée avec l’appui de la recherche scientifique (Laboratoire de géographie et d’aménagement, Université de Montpellier Paul-Valéry). Elle repose sur des itinéraires pédestres optimisés, tenant compte des pentes, des obstacles, des vitesses de déplacement et des points de congestion. Des sites refuges situés hors de portée des vagues ont été identifiés et validés avec les autorités locales. Les itinéraires d’évacuation ont été modélisés au moyen d’algorithme de recherche des chemins les plus rapides.
Au total, près d’une centaine de sites refuges ont été cartographiés et intégrés dans des plans d’évacuation opérationnels, conçus pour guider les populations vers une mise en sécurité rapide.
La prévention ne repose pas uniquement sur des cartes. Elle passe aussi par l’appropriation du risque par les populations. Des actions de sensibilisation, des exercices d’évacuation, notamment en milieu scolaire ainsi que le déploiement progressif d’une signalétique spécifique contribuent à ancrer les bons comportements. Plusieurs actions de ce type ont été réalisées à Nice avec le concours des étudiants de Montpellier.
À Nice, une plateforme d’information accessible au public avec des cartes interactives permet également de consulter les zones à évacuer, les itinéraires et les consignes à suivre en cas d’alerte. Ces outils contribuent au développement d’une véritable culture du risque tsunami.
Au-delà du cas azuréen, la méthode développée est transposable à d’autres littoraux français et européens, en Méditerranée comme en outre-mer, où les délais d’arrivée des tsunamis peuvent être tout aussi courts.
Ces démarches s’inscrivent dans l’objectif de reconnaissance internationale Tsunami Ready (territoires préparés aux tsunamis) porté par l’Unesco. Ce programme en 12 points vise à certifier les territoires capables d’anticiper le risque, de préparer leurs populations et d’organiser une réponse adaptée.
Les premières communes d’Europe dotées de ce label ont d’ailleurs bénéficié de l’accompagnement scientifique et technique de notre équipe. Il s’agit de Deshaies en Guadeloupe et de Cannes (Alpes-Maritimes), en attendant la reconnaissance toute prochaine de la Métropole Nice Côte d’Azur.
Face à une vague qui peut arriver en quelques minutes, être prêt à évacuer peut faire toute la différence.
Article écrit avec la collaboration de Louis Monnier, Monique Gherardi, Matthieu Péroche et Noé Carles, Université de Montpellier Paul-Valéry.
Frédéric Leone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.03.2026 à 09:14
Alban Guyomarc'h, Doctorant en droit spatial et en droit international privé, Université Paris-Panthéon-Assas; École normale supérieure (ENS) – PSL

En 2026 est prévu un lancement très attendu – et déjà reporté plusieurs fois : celui d’Artemis-2, la deuxième mission du programme d’exploration lunaire Artemis, débuté en 2017 par la Nasa et ses partenaires. Fin 2026, c’est la Chine qui doit envoyer une mission robotisée au pôle Sud lunaire, Chang’e-7, tandis que l’Inde prépare l’alunissage de Chandrayaan-4 pour 2027.
Dans la mission Artemis-2, qui doit emmener quatre astronautes survoler notre satellite naturel avant de revenir sur Terre, tout semble baigner dans un parfum de guerre froide, comme un écho lointain du programme Apollo. La fusée SLS (pour Space Launch System), haute de cent mètres, rappelle la Saturn-5 qui propulsait autrefois les astronautes vers la Lune. La capsule Orion évoque le Command Module d’hier, panneaux solaires en plus. Même la rhétorique états-unienne réactive l’idée d’une nouvelle course lunaire : non plus contre l’URSS, mais face à l’autre hégémon du moment, la Chine. Et puis il y a la destination elle-même, la Lune, dont le sol s’apprête à être foulé de nouveau.
La pièce qui se joue devant nous paraît familière. Tout y a comme un air de déjà-vu. Pourtant derrière ce décor rétro se dessinent des lignes nouvelles. Si l’on adopte les perspectives des relations internationales et du droit, le programme Artemis permet d’illustrer deux évolutions majeures : l’émergence d’un axe de compétition Nord-Sud dans l’exploration lunaire et la disruption du cadre juridique applicable dans l’espace.
Alors que la « conquête spatiale lunaire » des années 1960 ne comptait que deux superpuissances, l’URSS et les États-Unis, notre satellite naturel est aujourd’hui une destination prisée des programmes d’exploration, l’intérêt pour la Lune ayant crû au cours de la dernière décennie après un relatif désintérêt dans la période post-Apollo. Il faut prendre au sérieux cette internationalisation des ambitions d’exploration, et partant, savoir regarder les différents modèles d’exploration proposés ; tout en les rattachant à leur contexte culturel et géopolitique d’origine.
À partir de 2017, en réaction, notamment aux avancées spatiales chinoises dans les domaines de l’exploration, les États-Unis lancent progressivement le programme Artemis, visant à ramener des astronautes sur la Lune entre la fin des années 2020 et le début de la décennie 2030.
Annoncé en mars 2021, son pendant sino-russe, le programme ILRS (pour International Lunar Research Station) se propose des objectifs analogues, quoiqu’avec un calendrier différent. Il associe les compétences de deux puissances spatiales importantes que sont la Russie et la Chine. La première a déjà visé la Lune à l’été 2023 avec sa mission Luna 25 ; la seconde développe une série de missions lunaires Chang’e, depuis le début des années 2000, dont le septième opus, Chang’e-7, est une mission robotisée (et non habitée) qui doit décoller pour le pôle Sud lunaire fin 2026, avec un programme scientifique ambitieux.
Dans le sillage de ces deux programmes massifs que sont Artemis et l’ILRS, on trouve toute une série de missions plus modestes, optant pour une exploration robotisée de la surface de la Lune.
L’Inde, par exemple, poursuit ses lancements dans le cadre du programme Chandrayaan (Chandrayaan-3, a atteint le pôle Sud de la Lune en août 2023) et le pays ne cache pas ses ambitions dans le domaine du vol habité.
Parallèlement à ces projets, le Japon conduit une série de missions robotisées, dont certaines en coopération avec des start-up, et notamment ispace, une entreprise basée au Japon, aux États-Unis et au Luxembourg. Ce dernier se veut le fer-de-lance de la prospection de ressources spatiales à l’échelle européenne. L’Europe, via l’Agence spatiale européenne (ESA), développe, au-delà de ses coopérations avec la Nasa, une série de programmes lunaires futurs, et notamment l’atterrisseur lunaire Argonaut, pour début 2030.
Enfin, d’autres États se greffent à des missions lunaires existantes, c’est ainsi que la mission japonaise Hakuto-R1 embarquait en 2022 un rover émirati, Rashid ou que la mission chinoise Chang’e-6 a permis le placement en orbite lunaire du satellite pakistanais d’observation lunaire ICUBE-Q en 2024.
Les concepteurs des programmes Artemis et ILRS ont vu dans cette internationalisation des ambitions lunaires l’occasion de faire de la Lune un terrain de coopération ; ce qui constitue, là aussi, une nouveauté.
Les États-Unis coopèrent ainsi avec les États européens, notamment via l’ESA, avec le Japon ou encore avec le Canada. En face, la Chine et la Russie ont souhaité coopérer, selon des modalités qui demeurent floues, avec le Venezuela, l’Afrique du Sud, l’Azerbaïdjan, le Pakistan, la Biélorussie, l’Égypte, la Thaïlande, le Kazakhstan et le Sénégal. Si l’attention des chercheurs à l’égard d’Artemis est acquise, les travaux sur le réseau de coopération de l’ILRS sont encore assez rares.
In fine, cette carte de la coopération lunaire dit aussi beaucoup des évolutions de la géopolitique spatiale du siècle, qui ne tourne plus autour d’un axe Est-Ouest hérité de la guerre froide, mais autour d’un axe Nord global-Sud global – même s’il faut noter la participation d’États du Nord global à des missions lunaires chinoises, et notamment la participation du Cnes, l’agence spatiale française, à la mission Chang’e-6.
C’est encore dans le cadre du programme Artemis qu’il faut replacer deux innovations juridiques faisant de la Lune le terrain de ruptures majeures pour le droit de l’espace.
Ayant principalement pour objet la question de la propriété des ressources spatiales, ces ruptures sont venues troubler la relative stabilité du cadre constitué jusqu’alors par le traité de l’Espace de 1967, et dans une moindre mesure, par l’accord sur la Lune de 1979. Par l’article II du traité de l’Espace, l’espace extra-atmosphérique et notamment les corps célestes sont frappés d’un principe de non-appropriation ; tandis que dans l’article XI de l’accord sur la Lune, les ressources spatiales sont constituées en patrimoine commun de l’humanité.
Mais l’intérêt manifesté par quelques entreprises états-uniennes pour le sol lunaire et ce qu’il contiendrait d’exploitable (le conditionnel est vraiment de mise) a réveillé leur imaginaire juridique, ensuite relayé par le droit de la première puissance spatiale.
Ainsi, la première rupture date du Space Act de 2015, quand les États-Unis ont introduit en droit interne la possibilité de s’approprier légalement les ressources extraites dans l’espace. La proposition est pour le moins en délicatesse avec le droit international applicable, et notamment avec le principe de non-appropriation évoqué précédemment – ce que n’ont pas manqué de remarquer certains États aux Nations unies, dès 2016.
Néanmoins, elle a depuis fait florès, et on retrouve aujourd’hui des textes analogues en droit japonais, luxembourgeois ou encore émirati. Un groupe de travail spécifique fut même lancé aux Nations unies sur le sujet.
La seconde rupture juridique amorcée par les États-Unis concerne les accords Artemis, dont les sections 10 et 11 viennent consacrer, d’une part, la possibilité de s’approprier les ressources spatiales et, d’autre part, la possibilité de dessiner des zones de sécurité autour des installations lunaires. Là aussi, la conformité au droit de l’espace est a minima questionnable.
Mais c’est surtout la méthode employée qui interroge : les accords Artemis ne sont pas en soi un accord multilatéral concernant le droit applicable à l’exploration des corps célestes. Leur juridicité même est régulièrement questionnée. Par ailleurs, les États signataires des accords Artemis n’en ont pas négocié le contenu ; ils se sont contentés d’y adhérer, avec des contreparties variables. Néanmoins, grâce à ces signatures, l’initiative unilatérale de la première puissance spatiale mondiale prend des airs d’initiative internationale – et rend mainstream l’interprétation du droit applicable dans sa version états-unienne, ceci sachant que l’on compte aujourd’hui plus d’une cinquantaine d’États signataires des accords Artemis.
Ces deux ruptures juridiques d’origine états-unienne placent la nouvelle vague d’explorations lunaires sous l’égide d’un droit de l’espace en voie de renouvellement, tant dans son contenu que dans la fabrique de la norme spatiale. Les premières missions à toucher le sol lunaire auront donc un rôle majeur dans la définition du droit futur de l’exploration des corps célestes.
À côté des dynamiques nouvelles qui redessinent le paysage lunaire en ce début de siècle, d’autres facteurs rappellent combien celui-ci est aussi rattrapé par les contraintes au cœur des années 2020. Il est alors impossible de ne pas évoquer la question du coût environnemental et budgétaire de ces programmes.
Les grands programmes d’exploration ont toujours coûté cher : des 250 milliards de dollars du programme Apollo, on passe à une estimation basse du coût global du programme Artemis jusqu’à l’année 2025 de l’ordre de 93 milliards de dollars, soit plus de 78,6 milliards d’euros (un seul lancement Artemis est estimé à 4 milliards de dollars, plus de 3,3 milliards d’euros). Des montants tentaculaires comparés au budget spatial annuel français (2,5 milliards d’euros par an depuis plusieurs années) ou européen (l’ESA a voté un budget record d’environ 22 milliards d’euros pour trois ans).
D’ailleurs, la sécurisation budgétaire (et in fine politique) des programmes lunaires états-uniens a été un enjeu récurrent au cours de l’année 2025, les États-Unis finançant, puis dé-finançant, puis refinançant tout ou partie du programme lunaire, quitte à sabrer quelques-uns des domaines de coopération sur le sujet, notamment avec l’ESA.
Il faut aussi questionner la dimension écologique des programmes lunaires, quoique ce ne soit pas tellement une préoccupation états-unienne. Le lancement d’Artemis 2 intervient dans un monde marqué par l’intensification des effets du changement climatique. Cette concomitance interroge quant à l’adéquation de ces programmes à leur contexte environnemental et laisse aussi ouvert un autre chantier de réflexion, important à conduire, et notamment en Europe : qu’est-ce qu’une ambition lunaire correctement dimensionnée à notre époque, à la fois budgétairement et environnementalement ?
Car au-delà de la question classique et attendue de la priorisation des investissements, la question qui se pose est celle de la définition d’autres modèles d’exploration spatiale possibles – en ce sens, Artemis et l’ILRS ne fixent pas nécessairement le la de ce que devrait être une ambition lunaire en 2026.
Alban Guyomarc'h est membre du Groupe de travail "Objectif Lune" de l'Association Nationale de la Recherche et de la Technologie (ANRT), groupe de travail dont il coordonne les travaux. Dans le cadre de ses recherches, il est également membre du PEPR Origines de la vie, dans le cadre duquel il conduit ses recherches doctorales au Collège de France.
04.03.2026 à 09:14
Jacques Arnould, Expert éthique, Centre national d’études spatiales (CNES)

La galaxie d’Andromède, la planète Mars, les missions Apollo hier et Artémis aujourd’hui : avez-vous remarqué combien d’astres et de missions spatiales portent des noms de dieux romains ou grecs ? Certaines conceptions de la conquête spatiale reflètent des doctrines colonialistes. Comment les dépasser ?
Souvenez-vous : le 6 février 2018, Elon Musk a envoyé vers Mars sa propre Tesla, avec, à bord, un mannequin habillé d’une combinaison spatiale. Le message était clair : la colonisation de la planète rouge par le milliardaire américain avait commencé ! Certes, huit ans plus tard, les fusées de la société SpaceX n’ont pas encore atteint la surface de Mars et les projets de colonie restent à l’état de magnifiques images de synthèse ; pourtant, l’enthousiasme ne fléchit pas chez les aficionados de l’espace, et l’inquiétude chez bien d’autres : jamais nous n’avons été aussi près d’une colonisation de l’espace.
Pour la réaliser, bien des défis technologiques et humains restent à relever ; mais l’affaire est suffisamment sérieuse pour y appliquer une analyse et une critique sérieuses. Nous savons trop bien de quelle manière les humains ont colonisé notre Terre. Voulons-nous agir de même dans l’espace ?
Elon Musk n’est pas le premier à vouloir conquérir une planète. Ce projet a toujours été associé aux rêves et aux réalisations de voyage dans le ciel. N’en prenons que deux exemples, non dénués d’humour.
Le premier est une satire, issue d’un journal anglais, The Examiner. Le 3 janvier 1808, il prête à Napoléon des propos guerriers de conquête et de colonisation de l’espace :
« Alors je pourrai constituer une armée de ballons, dont Garnerin sera le général, et prendre possession de la Comète. Cela me permettra de conquérir le système solaire, ensuite j’irai avec mes armées dans les autres systèmes, enfin – je pense –, je rencontrerai le Diable. »
Le second exemple est sorti des archives des imageries d’Épinal : dans la forme d’un cerf-volant, un zouave grimpe hardiment une échelle appuyée sur la Lune. « Nous irons conquérir la Lune », claironne la légende ; au même moment où les frères d’armes du zouave sont engagés dans la colonisation de l’Afrique du Nord.
Jusqu’à preuve du contraire, l’espace extra-atmosphérique présente une propriété assez rare sur notre planète : il est inhabité (je rappelle ici que les scientifiques n’ont pour l’instant aucune preuve de l’existence de la moindre forme de vie, de la moindre biosphère extraterrestre). En terme juridique, l’espace pourrait donc être considéré comme une terra nullius, selon l’expression latine qui désignait des terres « sans habitants » – à l’époque, il s’agissait plus précisément de dire « sans populations chrétiennes » – et, par suite, n’appartenant à personne.
Dans le passé, cette doctrine, validée par le pouvoir religieux, a justifié la prise de possession de ces territoires par les souverains (chrétiens) d’Europe ; et c’est une perspective que les inspirateurs du droit de l’espace et les législateurs spatiaux ont tenté d’écarter en proposant de déclarer les corps célestes patrimoine commun de l’humanité.
Ainsi, le traité de l’Espace, adopté par l’ONU en décembre 1966, a déclaré l’espace bien commun et a été signé par les grandes puissances de l’époque, États-Unis et Union soviétique en tête : l’espace appartient à tous ; son exploitation est possible… comme l’illustre la lucrative activité des satellites de communication.
Toutefois, lorsque l’accord sur la Lune, proposée par l’ONU treize ans plus tard, propose de déclarer l’astre des nuits patrimoine commun de l’humanité et donc d’y interdire toute forme d’exploitation, les puissances spatiales refusent de le signer. Il n’est aujourd’hui ratifié que par 18 États dépourvus de grandes ambitions spatiales.
Devons-nous conclure que les puissances spatiales, établies ou en devenir, caressent des rêves de conquête et de colonisation ? La décision de l’administration Obama de l’hiver 2015 de soutenir et de préserver les initiatives de ses entreprises nationales en matière d’exploitation des ressources spatiales, suivie par des initiatives analogues de la part des gouvernements du Luxembourg, des Émirats arabes unis et du Japon, pourrait faire penser à la politique des comptoirs lancée par les puissances européennes à partir du XVᵉ siècle. Les défis technologiques à relever sont aussi importants que les débats juridiques et politiques à résoudre.
Quant à l’immense vide spatial et, notamment, le domaine des orbites autour de la Terre : ce territoire était incontestablement inhabité jusqu’à l’arrivée du premier Spoutnik, puis du premier cosmonaute. Toutefois, il possède à son tour une caractéristique singulière, celle d’être impérativement à usage commun, du simple fait de la mécanique céleste : tout corps y est en mouvement et n’occupe un point de l’espace que très brièvement. Le seul mode possible d’appropriation relève de la saturation, autrement dit d’une occupation par le nombre : fin 2025, entre 50 et 65 % des satellites en orbite autour de la Terre appartenaient à un seul opérateur, SpaceX.
S’il est inapproprié de parler d’une « colonisation des orbites circumterrestres », il est à craindre que les règles et les lois qui gouvernent l’usage de cet espace soient celles du plus fort, du plus nombreux, du premier arrivé.
Que pouvons-nous conclure ici ? Qu’à formellement parler la colonisation de l’espace lui-même n’a pas encore commencé et que, par voie de conséquence, l’enjeu actuel et à venir constitue moins à décoloniser l’espace qu’à en empêcher la colonisation future.
En revanche, force est de constater que l’esprit des 70 premières années de l’entreprise spatiale a bien été imprégné par certains traits communs aux politiques, aux récits, aux symboles de la colonisation. À l’époque des missions Apollo, n’était-il pas question de « conquête de l’espace », plutôt que de son exploration ? Si planter un drapeau sur le sol lunaire n’a jamais été interprété comme une volonté d’appropriation, le geste a tout de même été effectué pour affirmer la supériorité technique des États-Unis et, donc, une forme de suprématie politique.
Aussi symbolique quoique moins violente est l’habitude de baptiser les astres et leurs topographies en s’inspirant des mythologies et de l’histoire de l’Occident. Entamer la décolonisation de l’espace peut alors consister à recourir désormais à d’autres mythologies pour baptiser les corps célestes que découvrent les astronomes. Baptiser Oumuamua, en hawaïen « l’éclaireur », l’objet interstellaire repéré le 19 octobre 2017 en est une illustration.
Que dire dès lors des revendications émises par plusieurs peuples amérindiens lors de missions lunaires, qu’il s’agisse de celles des années 1960 ou celle plus récente menée début 2024 par la société états-unienne Astrobotic ? Pour ces populations, la Lune appartient au domaine du sacré : y poser des vaisseaux robotiques, habités ou transportant les cendres de Terriens, n’est-ce pas accomplir un sacrilège, autrement dit une forme extrême de colonisation ?
Les raisons ne manquent donc pas de porter dans les affaires spatiales le souci de décolonisation qui marque aujourd’hui de nombreux discours à propos de l’espace, quitte à y inclure l’apport des ingénieurs allemands (éventuellement nazis) dans le développement spatial de pays, comme les États-Unis et la France, ou encore la politique menée par la France sur le territoire guyanais afin d’y implanter la base spatiale de Kourou, qui succéderait en 1968 à celle d’Hammaguir après l’indépendance de l’Algérie.
Ce souci est indispensable ; mais il n’est pas suffisant.
Le processus de décolonisation doit conduire à une perspective postcoloniale, autrement dit à l’instauration de politiques, de gouvernances des activités humaines dans l’espace qui soient autant que possible débarrassées des principaux caractères néfastes de la colonisation : la soumission violente et l’exploitation brutale d’une partie de l’humanité par une autre, l’exploitation jusqu’au saccage de ressources communes, la destruction de cultures et de traditions ancestrales, etc.
Dans cette perspective, les discours, les revendications et les programmes spatiaux de certains acteurs du NewSpace (les stations spatiales de Jeff Bezos, les colonies martiennes d’Elon Musk) peuvent susciter bien des soucis, bien des craintes, tant ils mettent en avant les seuls intérêts de ces entrepreneurs, les seuls plaisirs ou la seule sécurité de quelques privilégiés.
De plus, l’argument de l’espèce humaine interplanétaire est loin d’être moralement convaincant. Où est-il « écrit » que nous devions nous répandre au-delà des frontières terrestres, au détriment de possibles biosphères extraterrestres ? À quel « échantillon » humain pourrions-nous confier le soin des expansions extraterrestres ? Ou, pour le dire autrement, quelle partie de l’humanité serait « laissée » sur une Terre dont nous savons l’avenir menacé ?
N’oublions pas pour autant les récits d’hier et d’aujourd’hui qui décrivent des communautés humaines installées durablement dans l’espace. Non pour alimenter les rêves de paradis retrouvé, comme ceux imaginés par le gourou du NewSpace que fut Gerard O’Neill, mais pour mener le travail critique imaginé par Thomas More dans son célèbre ouvrage, l’Utopie.
Publié dans sa version finale en 1518, ce petit ouvrage, « non moins salutaire qu’agréable » selon les mots mêmes de son auteur, invitait ses premiers lecteurs à partir pour une cité totalement imaginaire, un non-lieu aussi bien qu’un non-temps, qui servait de miroir pour porter un regard critique sur leur propre société. Le philosophe britannique ne cherchait ni à rompre brutalement les liens avec un passé ni à s’échapper dans un futur idéalisé, mais avant tout à remettre l’être humain au centre du souci commun, à lui construire un futur à la mesure de sa condition, celle éprouvée dans le passé et dans le présent, celle pensée et espérée pour le futur.
Jacques Arnould ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.03.2026 à 16:57
Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université
Christine Noiville, Juriste, directeur de recherche CNRS, Institut des Sciences Juridique et Philosophique de la Sorbonne, Université Paris 1 Panthéon-Sorbonne

Certaines interventions visant à éviter les effets du réchauffement climatique génèrent des risques très importants, tout particulièrement la « modification du rayonnement solaire ». La recherche publique a un rôle capital à jouer pour éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables.
Face à l’intensification des effets du changement climatique, l’idée de limiter ce phénomène en manipulant volontairement le climat a surgi. Différentes interventions d’« ingénierie climatique » sont évoquées. Parmi elles notamment la géo-ingénierie solaire pour modifier l’arrivée des rayons du soleil à la surface de la Terre ; la géo-ingénierie polaire pour protéger la banquise de la fonte, par exemple en y cultivant de la neige ; la fertilisation de l’océan, en y injectant du fer pour activer la pompe biologique ; ou bien le blanchiment des nuages pour qu’ils réfléchissent les rayons solaires vers l’espace.
Ces propositions ont des efficacités et des risques très différents ; mais la géo-ingénierie par la modification du rayonnement solaire présente des risques collectifs à grande échelle (réchauffement brutal, modifications locales du climat…) et soulève des questions éthiques.
Quelle est la responsabilité des scientifiques lorsque de tels risques sont susceptibles d’être attachés à leurs recherches ? Dans un domaine désormais investi par divers États et acteurs privés désireux de multiplier les expérimentations dans un avenir proche, voire les déploiements à plus lointaine échéance, nous pensons que la recherche publique a un rôle capital à jouer : objectiver les questions en jeu, documenter des impacts potentiels, opérer un suivi de déploiements éventuels, éclairer correctement le public et les décideurs, éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables… comme cela a déjà été le cas dans l’histoire.
Les techniques de géo-ingénierie solaire consistent à vouloir limiter les effets de l’énergie du soleil qui arrive sur Terre, et sont présentées comme un outil possible pour atténuer les effets du réchauffement.
Parmi elles, la modification du rayonnement solaire (MRS) est aujourd’hui l’une des plus débattues et divise les communautés scientifiques. Elle consiste à injecter des particules, par exemple des aérosols soufrés, dans la stratosphère pour renvoyer vers l’espace une partie du rayonnement du soleil. Soutenue par un nombre croissant d’acteurs publics et privés (scientifiques, philanthropes, entreprises, États), elle comporte toutefois de nombreux risques.
Il est en effet établi qu’elle est susceptible d’entraîner une déstabilisation du climat local de régions entières, des écosystèmes et du cycle de l’eau (par exemple, en modifiant la mousson asiatique), ce qui pose des questions de justice et donc de gouvernance internationale.
En outre, l’arrêt des injections pourrait produire un effet rebond (ou « choc terminal »), c’est-à-dire un réchauffement brutal de la Terre dont les impacts pourraient être bien plus délétères que le réchauffement graduel en cours.
Il faut aussi envisager les potentielles utilisations stratégiques, voire malveillantes de la MRS – par exemple, un pays qui tenterait de réduire les précipitations sur le territoire d’un adversaire –, plus que jamais envisageables dans un monde fragmenté au plan géopolitique.
Ces oppositions sont loin d’être purement théoriques. Aux États-Unis, des scientifiques, soutenus par leurs institutions, souvent des universités privées financées par des fonds publics autant que privés, se sont ainsi lancés dans de telles recherches, sans cadre légal, éthique ni soutien du public. C’est par exemple le cas du Harvard Solar Geoengineering Research Program qui explore différentes facettes des enjeux liés (connaissances scientifiques, enjeux sociaux et politiques), sans, pour l’instant, tenter d’expérience à grande échelle dans l’atmosphère.
Au Royaume-Uni, l’agence ARIA (qui, sur le modèle de la Defense Advanced Research Projects Agency, ou DARPA, aux États-Unis, a pour mission de soutenir des recherches « disruptives ») a décidé de promouvoir ces sujets et lancé des appels d’offres sur les « points de bascule » et la géo-ingénierie en 2024. Une partie de la communauté scientifique s’est vue acculée à réfléchir dans l’urgence aux enjeux éthiques.
En France, la communauté scientifique débat de la question de savoir s’il faut ou non donner suite ou non à la proposition de l’industriel F. Paulsen et d’autres mécènes de financer des recherches en géo-ingénierie polaire, notamment pour étendre ou épaissir la banquise.
Ces essais soulèvent d’épineuses questions pour la recherche publique. Lors des auditions que nous avons menées pour rédiger l’avis du comité d’éthique du CNRS (Comets) sur cette question, certains scientifiques ont fait valoir le principe de liberté de la recherche, mais aussi la « neutralité » de cette dernière : les chercheurs produisent des connaissances nouvelles qui seraient en elles-mêmes « neutres » ; aux politiques de choisir de mobiliser ces connaissances pour mettre en œuvre, ou pas, la modification du rayonnement solaire.
D’autres chercheurs affirment à l’inverse qu’il n’est pas responsable d’exposer les populations et l’environnement aux risques graves liés à de telles recherches. Ils font observer que la recherche en elle-même n’est pas neutre, car ses enjeux concernent la société, même si elle produit des connaissances fiables, c’est-à-dire robustes et utiles. Ils pointent notamment les impacts d’expériences dangereuses, mais aussi le risque que la recherche sur la modification du rayonnement solaire ne freine les efforts de réduction des émissions de gaz à effet de serre en nourrissant l’illusion d’un remède rapide, permettant à certains acteurs « d’acheter du temps », sans régler pour autant l’origine du problème.
Pour d’autres chercheurs enfin, il relève au contraire de la responsabilité de la recherche publique de répondre aux enjeux majeurs de notre époque, dont la lutte contre le changement climatique, y compris en empruntant des voies ou des méthodes à risques.
Au-delà de ces débats, dans un domaine désormais investi par divers acteurs désireux de multiplier les expérimentations voire les déploiements, même « contrôlés et de petite échelle », la recherche publique à la responsabilité d’objectiver les questions en jeu de façon interdisciplinaire, d’éclairer correctement le public et les décideurs, afin d’éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables. Ceci a déjà été le cas dans l’histoire, par exemple le financement, par l’industrie du tabac, de recherches sur d’autres sources du cancer du poumon.
Les scientifiques doivent de plus être attentifs à l’influence des financements privés de la géo-ingénierie solaire, dont les motivations peuvent correspondre moins à l’intérêt général qu’à des intérêts particuliers. Ensuite, veiller aux termes et concepts qu’ils utilisent qui peuvent être instrumentalisés dans des récits motivant le besoin « urgent » de solutions technologiques au changement climatique. À ce titre, les récits autour de potentiels « points de bascule globaux » du climat, qui engendreraient des changements brutaux et rapides, mais qui font l’objet de débats scientifiques non tranchés, sont souvent mobilisés. Que penser, par exemple, du fait que le Bezos Earth Fund, fondation d’une entreprise de la tech américaine, finance des rapports de scientifiques sur les « points de bascule globaux » ?
Ainsi, le comité d’éthique du CNRS dont les deux auteurs de cet article font partie recommande de mobiliser la recherche publique sur ce sujet, avec des dispositifs solides de gouvernance et d’accompagnement : veille et suivi, dialogue interdisciplinaire, structuration d’espaces d’échanges avec la société civile, clauses de « revoyure » et « portes de sortie » afin d’évaluer, voire de stopper, des projets de recherche publique qui deviendraient dangereux.
Éric Guilyardi est Président de l'Office for Climate Education, organisation placée sous l'égide de l'UNESCO. Il est membre du Comité d'éthique du CNRS (COMETS) et du conseil scientifique de l'Éducation nationale. Il a reçu des financements de l'Agence Nationale de la Recherche et de l'Union Européenne.
Christine Noiville est DR au CNRS. Elle préside le COMETS, comité d'éthique du CNRS. Elle a reçu des financements de l'ANR et France 2030 (PEPR Santé numérique).
02.03.2026 à 17:01
Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers
À quoi ressemblait le visage de nos ancêtres, il y a plus de 3 millions d’années ? C’est à cette question que notre équipe internationale a répondu en assemblant virtuellement les fragments de la face de Little Foot, le spécimen d’Australopithecus le plus complet jamais mis au jour. Cette reconstruction nous éclaire sur la façon dont notre face a évolué en interaction directe avec notre environnement. Le résultat de nos travaux vient d’être publié et est disponible en accès libre dans la revue Comptes Rendus Palevol, et le nouveau visage de Little Foot peut être consulté en 3D sur la plateforme en ligne MorphoSource.
La quête des origines de l’humanité n’a jamais été aussi féconde, avec la découverte de fossiles reculant la date d’apparition des premiers humains à 2,8 millions d’années, et le développement de méthodes de pointe dans l’analyse de ces restes qui a permis, par exemple, de retrouver de l’information génétique vieille de plus de 2 millions d’années. Pourtant, si notre connaissance des espèces humaines éteintes s’enrichit au fil des découvertes, celle de nos ancêtres, avant les premiers humains (Homo), reste encore une énigme. Or, c’est précisément durant cette période charnière de notre histoire que se sont mis en place les caractères qui définiront notre humanité et qui assureront à notre genre un succès évolutif sans équivalent dans le monde vivant.
Bien que la question de l’identité de notre ancêtre direct soit loin d’être résolue, un groupe fossile joue un rôle central dans cette recherche, Australopithecus. Ce genre, auquel appartient la fameuse Lucy découverte il y a cinquante ans en Éthiopie, a occupé une grande partie de l’Afrique et a survécu plus de 2 millions d’années. Australopithecus est connu par de nombreux restes fossiles, mais souvent très fragmentaires, isolés et parfois déformés. En particulier, malgré ce registre unique, il n’existe à ce jour qu’une poignée de crânes qui conservent la presque totalité de la face. Or, cette partie de notre anatomie a fortement contribué à faire de nous les humains que nous sommes aujourd’hui.
À travers les systèmes digestifs, visuels, respiratoires, olfactifs et de communication non verbale, la face est au centre des interactions entre les individus et leur environnement physique et social. Nous savons aujourd’hui que des changements importants se sont opérés dans la région de la face, qui devient de plus en plus plate et de moins en moins robuste. En revanche, nous ignorons les facteurs qui en sont à l’origine. Est-ce la modification de notre régime alimentaire qui a entraîné ces changements ? Ou bien celle de nos comportements sociaux ? Seule la découverte de crânes plus complets pourrait éclaircir ce débat.
L’Afrique du Sud a été et est encore aujourd’hui une région privilégiée dans la quête des origines humaines. Il y a cent ans, l’emblématique « enfant de Taung » est mis au jour et publié dans Nature comme le représentant d’une nouvelle branche africaine de l’humanité, Australopithecus. Alors que jusqu’à cette date l’attention de la communauté scientifique était braquée sur l’Eurasie, cette découverte va ouvrir plus d’une décennie de découvertes majeures en Afrique. En particulier, l’Afrique du Sud va voir se multiplier les sites paléontologiques dans une région classée par l’Unesco et renommée « berceau de l’humanité ». Parmi ces sites, Sterkfontein va se montrer extrêmement riche en fossiles, en partie attribués à Australopithecus, dont la préservation est exceptionnelle. Mais c’est en 1994 et 1997 que Sterkfontein va livrer sa plus belle pièce, le squelette de Little Foot préservé à plus de 90 %. À ce jour, il s’agit du squelette le plus complet jamais découvert pour Australopithecus, qui rivalise de très loin avec Lucy dont seulement 40 % de l’anatomie est conservée.
Notre équipe s’est attelée à l’étude de ce squelette depuis sa fouille complète qui s’est achevée en 2017. Le crâne a en particulier retenu notre attention, puisqu’il est, lui, complet. Cependant, les 3,7 millions d’années passées sous terre ont altéré sa face, dont certaines régions se sont fragmentées puis déplacées. Ce processus est notamment visible au niveau du front et des orbites et rend les analyses quantitatives impossibles. Devant la nature exceptionnelle et unique de ce fossile, nous avons décidé de mettre à notre service les avancées technologiques dans le domaine de l’imagerie pour redonner un nouveau visage à Little Foot.
L’accès à une copie digitale de Little Foot était nécessaire pour pouvoir isoler virtuellement les fragments et les repositionner sans endommager le crâne original.
Cependant, les technologies classiques de numérisation par rayons X connaissent des limites. À travers le processus de fossilisation, les cavités laissées vides dans le crâne de Little Foot par la disparition des tissus mous se sont remplies de sédiment. En conséquence, les rayons X peinent à pénétrer cette matrice sédimentaire extrêmement dense, ce qui impacte la qualité du contraste entre les tissus dans les images qui en résultent.
Après plusieurs tentatives infructueuses, nous avons envisagé une alternative, plus puissante, qui est celle de la numérisation par rayonnement synchrotron. Le synchrotron est un accélérateur à haute énergie de particules, utilisé en imagerie pour obtenir des images à très haute résolution (de l’ordre du micron, voire du submicron).
Dans cette optique, nous avons transporté le crâne de Little Foot en Grande-Bretagne pour le scanner. Le premier voyage de Little Foot hors d’Afrique s’est ainsi déroulé à l’été 2019, sous escorte et avec une chambre forte pour l’accueillir lors de son séjour outre-Manche.
Plusieurs jours ont été nécessaires pour numériser l’ensemble du crâne à une résolution de 21 microns. Ces images, exceptionnelles, ont révélé des détails intimes de l’anatomie de Little Foot, et fournissent le matériel de travail nécessaire pour la reconstruction de sa face.
La haute qualité de ces données a néanmoins un coût en termes de ressources computationnelles ; plus de 9 000 images ont été générées et représentent des téraoctets d’information à traiter. Pour isoler virtuellement les fragments, ces images ont donc été traitées à l’aide du supercalculateur de l’Université de Cambridge (Angleterre). Une fois générés en 3D, ces fragments ont été replacés selon leur position anatomique, et les parties manquantes recréées afin de redonner, enfin, un visage complet à Little Foot.
La taille et la forme des orbites de Little Foot, jusque-là masquées par la présence de fragments déplacés, sont parmi les premiers éléments marquants de cette reconstruction. La région orbitaire chez les primates est largement influencée par des adaptations fonctionnelles (vision) et comportementales (écologie). Les orbites de Little Foot, de grande taille proportionnellement au reste de la face, suggèrent une forte dépendance aux informations sensorielles, probablement pour la recherche de nourriture. Cette hypothèse est renforcée par une étude antérieure montrant que son cortex visuel était plus développé que celui des humains actuels.
Le deuxième résultat qui découle de cette étude a des répercussions sur notre compréhension des affinités entre les groupes d’Australopithecus qui vivaient en Afrique entre 4 millions et 2 millions d’années. L’échantillon comparatif, bien que limité, comprenait des spécimens d’Afrique de l’Est et d’Afrique du Sud. Or, Little Foot, bien que provenant d’un site sud-africain, montre des ressemblances fortes avec les spécimens d’Afrique de l’Est. Ces ressemblances pourraient indiquer que Little Foot partageait des ancêtres proches avec la population d’Afrique de l’Est, alors que ses probables descendants en Afrique du Sud développeront plus tard une anatomie distincte, fruit d’une évolution locale.
Bien que la face renferme de précieuses informations sur les adaptations de nos ancêtres à leur environnement, le reste du crâne de Little Foot apportera d’autres éléments clés pour comprendre notre histoire évolutive. Entre autres, la boîte crânienne, affectée par une déformation dite « plastique », devra faire l’objet de travaux similaires pour, cette fois, reconstituer et explorer les conditions neurologiques de ce groupe fossile.
Le projet « À la Recherche des Origines Humaines en Afrique Australe – LHOSA» est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Ces travaux de recherche sont soutenus par l’Agence Nationale de la Recherche, le Centre National de la Recherche Scientifique, la Claude Leon Foundation, le DST-NRF Center of Excellence in Palaeosciences, l’Institut Français d’Afrique du Sud, le Diamond Light Source et l’organisme ISIS du Science and Technology Facilities Council (STFC).
01.03.2026 à 10:41
Georgina Sauzier, Senior Lecturer in Forensic Chemistry, Curtin University
Michael Vic Adamos, PhD Candidate, Chemistry, Curtin University

Les plans d’armes imprimées en 3D circulent librement en ligne et les saisies se multiplient. Mais ces armes sont-elles vraiment intraçables ? En Australie, une nouvelle étude démontre que leur signature chimique pourrait aider les enquêteurs à remonter les filières.
Les armes imprimées en 3D représentent une menace croissante pour la sécurité publique. Les plans permettant de fabriquer ces armes à feu sont disponibles en ligne, ce qui les rend facilement accessibles. Avec une imprimante 3D relativement bon marché et une simple recherche sur Internet, n’importe qui pourrait imprimer sa propre arme non déclarée.
Ces armes ont été qualifiées d’« intraçables ». De nouvelles recherches viennent désormais mettre cette affirmation à l’épreuve.
Notre nouvelle étude, publiée dans la revue Forensic Chemistry, montre que certains filaments – les matériaux utilisés dans les imprimantes 3D – présentent des profils chimiques distincts susceptibles d’aider à relier des armes imprimées en 3D saisies.
En octobre dernier, une opération de l’Australian Border Force a permis de découvrir 281 armes à feu imprimées en 3D ou des composants associés. Ces pièces imprimées en 3D peuvent être combinées avec des éléments courants achetés en magasin de bricolage pour fabriquer des armes « hybrides », ce qui en accroît la solidité et la durabilité. Les armes entièrement imprimées en 3D comme les modèles hybrides peuvent être tout aussi létales que celles fabriquées en usine.
En Australie, des événements récents ont conduit à des appels demandant aux détaillants d’aider à endiguer la prolifération des armes imprimées en 3D. Parmi les propositions figurent l’installation de technologies de blocage sur les imprimantes 3D ou le signalement de l’achat d’articles susceptibles d’être utilisés pour fabriquer des armes hybrides.
Mais que peut-on faire face aux armes déjà en circulation dans la communauté ?
Les armes imprimées en 3D ont hérité du surnom d’« armes fantômes », car elles sont difficiles à retracer par les méthodes classiques d’analyse balistique. Alors que les forces de l’ordre peinent à identifier l’origine des armes fantômes saisies, il revient aux chercheurs de trouver une solution alternative. L’analyse chimique des filaments utilisés pour imprimer ces armes pourrait être la clé pour mettre fin à leur réputation d’armes « intraçables ».
Les filaments d’impression 3D sont composés de différents polymères, c’est-à-dire de plastiques. Le principal polymère utilisé pour l’impression 3D à domicile est l’acide polylactique, ou PLA, un bioplastique notamment employé pour fabriquer des sacs-poubelle compostables. D’autres filaments courants sont fabriqués à partir d’ABS – le matériau principal des briques LEGO, apprécié pour sa robustesse – et de PETG, un polymère souple que l’on retrouve dans les gourdes de sport.
Certains filaments spécialisés sont obtenus en combinant plusieurs polymères. Beaucoup contiennent également des additifs – des ingrédients supplémentaires destinés à améliorer la résistance, la flexibilité ou l’apparence.
Les filaments d’impression 3D étant généralement brevetés afin de protéger leurs formulations spécifiques, leurs additifs et autres composants mineurs ne sont en général pas mentionnés sur l’emballage. Or, ce sont précisément ces ingrédients qui pourraient détenir la clé pour retracer les « armes fantômes ».
Le mélange d’ingrédients utilisé dans les filaments d’impression 3D confère à chaque type de filament une signature chimique particulière. Nous pouvons identifier ces signatures grâce à la spectroscopie infrarouge, une méthode qui mesure la manière dont le filament absorbe la lumière infrarouge. Ce motif d’absorption – un profil infrarouge – varie en fonction des molécules présentes dans le filament.
Dans le cadre de nos travaux, menés en collaboration avec ChemCentre – un laboratoire médico-légal public d’Australie-Occidentale – nous avons analysé plus de 60 filaments provenant du marché de détail australien. Nous avons constaté que nombre de ces filaments pouvaient être distingués grâce à leur profil infrarouge, bien qu’ils paraissent identiques à l’œil nu.
Les filaments en PLA, en ABS et en PETG se différencient aisément en raison des différences marquées dans la composition chimique de chacun de ces polymères. Nous avons également réussi à distinguer certains filaments fabriqués à partir du même polymère, grâce à la présence d’additifs mineurs qui modifiaient leur profil infrarouge.
Dans un filament, par exemple, nous avons détecté la présence d’un compatibilisant – un additif qui permet à deux polymères de se mélanger. Cet ingrédient n’a pas été retrouvé dans d’autres filaments reposant sur le même polymère de base, ce qui suggère qu’il pourrait constituer un élément distinctif de la formulation de la marque. Cela indique également que ce filament contenait probablement deux polymères différents, alors qu’un seul était mentionné sur l’emballage.
Ces résultats montrent que l’analyse chimique des filaments peut s’avérer utile, bien qu’il s’agisse de produits de consommation largement disponibles.
La capacité à distinguer ou identifier différents filaments d’impression 3D pourrait permettre aux experts médico-légaux d’établir des liens entre une arme saisie et un filament saisi, ou entre des armes provenant d’affaires distinctes.
Ces rapprochements peuvent aider les forces de l’ordre à remonter jusqu’aux fournisseurs de ces armes, perturbant ainsi les chaînes d’approvisionnement et la production future.
Si nos travaux montrent que certains filaments d’impression 3D peuvent être différenciés, ce n’est pas le cas de tous. Nous menons désormais des recherches complémentaires en recourant à d’autres techniques analytiques, susceptibles d’apporter des informations supplémentaires, notamment sur les éléments chimiques présents dans les filaments.
La combinaison de différentes techniques nous permettra d’établir un profil chimique complet de chaque filament. Nous espérons que ces informations nous aideront à établir des liens entre une arme imprimée en 3D saisie, le filament à partir duquel elle a été fabriquée et l’imprimante 3D utilisée pour l’imprimer.
En retraçant l’empreinte chimique des armes imprimées en 3D, les criminels ne pourront plus se croire protégés par leur voile d’« intraçabilité ».
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.02.2026 à 10:43
Corinne Salcedo, Manager des systèmes TRISHNA, Centre national d’études spatiales (CNES)

En 2027, un satellite franco-indien va être mis en orbite pour détecter la température de la surface de la Terre, en évaluer le contenu en eau et aider différents secteurs d’activités : agriculture, agroforesterie, hydrologie, micrométéorologie urbaine, biodiversité.
« Trishna » veut dire « soif » en sanscrit. Pour un satellite qui contribuera de manière significative à la détection du stress hydrique (déficience en eau) des écosystèmes et à l’optimisation de l’utilisation de l’eau en agriculture, dans un contexte de changement climatique mondial, cela nous semble bien adéquat. TRISHNA, acronyme anglophone de Thermal InfraRed Imaging Satellite for High-resolution Natural resource Assesment, signifie aussi « satellite d’imagerie infrarouge thermique pour l’évaluation haute-résolution de ressources naturelles ».
Une fois en orbite, TRISHNA mesurera tous les trois jours, sur tout le globe terrestre et à 60 mètres de résolution, la température de surfaces des continents et de l’océan côtier, c’est-à-dire jusqu’à 100 kilomètres du littoral. Car, aussi étrange que cela puisse paraître, cette coopération entre le Centre national d’études spatiales français (Cnes) et son homologue indien l’Indian Space Research Organisation (ISRO) va mesurer la température terrestre pour étudier l’eau.
En effet, il est maintenant prouvé que sous l’effet d’une pression anthropique croissante et du changement climatique, notre environnement se réchauffe et se transforme de plus en plus vite, avec notamment un impact sur le cycle de l’eau, indissociable du cycle de l’énergie.
En effet, depuis l’échelle globale jusqu’à des échelles beaucoup plus locales, l’eau est à la fois un élément indispensable à la vie et le principal vecteur des échanges de chaleur dans la machine météorologique et climatique. Aujourd’hui, la modification conjuguée des températures et des régimes de précipitations impacte les réserves accessibles d’eau douce, dont 70 % sont voués aux usages agricoles (irrigation), 25 % à l’industrie et le reste aux usages domestiques.
Il est donc logique de rechercher une gestion optimisée de cette ressource, à la fois en termes de quantité et de qualité. Cet objectif permet de répondre à plusieurs objectifs gouvernementaux et internationaux portés par des organismes tels que le GEOGLAM (organisme international qui surveille les cultures agricoles au niveau planétaire et génère des prévisions de récolte via un système satellite mondial), la FAO (organisation pour l’alimentation et l’agriculture des Nations unies) et les Nations unies elles-mêmes.
Pour aller dans ce sens, la mission TRISHNA a été conçue de manière spécifique pour étudier prioritairement le stress hydrique des écosystèmes naturels et agricoles ainsi que l’hydrologie côtière et continentale.
À lire aussi : L’espace au service du climat : comment exploiter l’extraordinaire masse de données fournies par les satellites ?
La température de surface et sa dynamique sont des indicateurs précieux de la « soif » des végétaux car, en s’évaporant, l’eau refroidit la surface dont elle provient et réciproquement, les surfaces se réchauffent lorsqu’il n’y a plus d’eau à évaporer ou à transpirer (notons que ce principe vaut autant pour les animaux que pour les végétaux).
À lire aussi : Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ?
La température de surface peut donc être utilisée comme indicateur des quantités d’eau utilisées par une plante pour maintenir sa chaleur à un niveau permettant son bon fonctionnement.
Or, une loi physique, dite loi de Wien, connue depuis 1893, met en relation la température d’un objet avec l’énergie électromagnétique qu’il émet dans différentes longueurs d’onde. Selon cette loi, la planète Terre émet le plus d’énergie dans le domaine infrarouge dit « thermique » aux alentours de 10 micromètres.
Les détecteurs de TRISHNA ont donc été conçus en visant ce domaine spectral afin de mesurer l’énergie émise par les surfaces terrestres, quelles qu’elles soient (végétation, environnement côtier, lacs, rivières, neige, glaciers, surfaces artificialisées, milieux urbains) pour en déduire leur température.
Pour les besoins de la recherche et des applications qui en découlent, la fréquence élevée de revisite (tous les trois jours) et ses résolutions spatiale (60 mètres) et spectrale permettront d’aborder des enjeux scientifiques, économiques et sociétaux majeurs dans différents secteurs : agriculture, agroforesterie, hydrologie, micrométéorologie urbaine, biodiversité.
La coopération spatiale entre la France et l’Inde est un élément important de l’axe indopacifique de notre politique étrangère.
À lire aussi : Irrigation : l’Inde en quête d’une « révolution bleue »
Son histoire riche est marquée par des collaborations scientifiques et techniques débutées dès les années 1960, époque à laquelle les deux nations travaillaient notamment au développement de fusées-sondes. De part et d’autre, l’intention stratégique était alors de développer une autonomie nationale d’accès à l’espace.
Cette collaboration a jeté les bases de deux projets spatiaux emblématiques qui ont suivi plus récemment. Le premier de ces projets est le satellite Megha-Tropiques, conçu pour caractériser le potentiel de précipitation des nuages dans les régions tropicales et lancé en 2011. Puis, en 2013, est arrivée la mission SARAL/AltiKa, consacrée à la mesure du niveau des surfaces couvertes d’eau sur les océans et les continents.
En 2016, la visite officielle du président François Hollande en Inde a favorisé le démarrage du projet TRISHNA, tirant également parti de l’accord-cadre que le Cnes et l’ISRO avaient signé l’année précédente. La France et l’Inde lançaient ainsi une nouvelle étape de leur coopération spatiale sur le thème de l’eau.
Cette nouvelle coopération présente de nombreux avantages pour nos deux pays. L’industrie franco-européenne en bénéficie avec la forte implication de nos entreprises dans la réalisation de l’instrument thermique. Ainsi positionnés, nos industriels augmentent leur chance d’être impliqués dans les futurs grands contrats indiens. En contrepartie, ce schéma partenarial permet à l’Inde de parfaire son cheminement vers des industries stratégiques autonomes et vers des moyens de supervision environnementale appropriés.
Plus largement, TRISHNA consolide la coopération franco-indienne, ouvrant des perspectives de partenariats dans les secteurs des satellites d’observation et de télécommunications. Autres retombées importantes pour nos deux pays, le projet TRISHNA permet aux communautés scientifiques indienne (ISRO et instituts techniques universitaires) et française (CNES et laboratoires intervenants) de se positionner dans la recherche spatiale environnementale et de créer des applications à la fois rentables et utiles à différents secteurs d’activités, dont l’agriculture.
En combinant les données thermiques de TRISHNA avec des informations issues d’autres satellites (permettant d’évaluer la végétation, l’humidité des sols ou les précipitations), il sera possible d’estimer avec précision l’évapotranspiration réelle des cultures, c’est-à-dire la quantité d’eau effectivement utilisée par les plantes.
Cette information permettra aux agriculteurs, aux gestionnaires de bassins versants et aux décideurs politiques d’adapter les calendriers et les volumes d’irrigation en temps quasi réel, selon les besoins réels des cultures et non sur des moyennes ou des approches empiriques. Ce pilotage de l’irrigation « à la demande » représentera une avancée majeure, en particulier pour les régions où les ressources en eau sont limitées ou irrégulièrement réparties.
En Inde comme en France, des expérimentations sont déjà envisagées pour intégrer les données TRISHNA dans les systèmes d’aide à la décision utilisés par les agriculteurs. À terme, cela pourrait conduire à des économies d’eau significatives, à une réduction de l’impact environnemental de l’agriculture et à une meilleure résilience des systèmes de production face au changement climatique.
De manière plus générale, la mission pourra également contribuer à la prévention des risques liés aux évènements extrêmes, comme les canicules, les sécheresses, les feux, les inondations – des aléas auxquels nos deux pays sont de plus en plus confrontés.
En somme, TRISHNA offre à la France et à l’Inde une opportunité exceptionnelle de renforcer leur partenariat et de répondre aux défis économiques et climatiques auxquels nos deux pays et le monde entier font face aujourd’hui.
Philippe Maisongrande (responsable thématique Biosphère continentale, au Cnes) et Thierry Carlier (chef de projet TRISHNA) ont contribué à la réflexion sur les premières versions de cet article.
Corinne Salcedo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.02.2026 à 15:33
Baptiste Scancar, Scientifique spécialisé en intégrité scientifique, Institut Agro Rennes-Angers
David Causeur, Enseignant-chercheur, Institut Agro Rennes-Angers

Une étude récente pointe un chiffre alarmant : plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024. Cette production s’accélère et menace la production scientifique honnête.
Produire de la connaissance par la recherche scientifique donne lieu à une forte compétition entre équipes et individus, dans laquelle une publication dans une revue prestigieuse peut changer la trajectoire d’une carrière. Même si beaucoup remettent en cause les règles actuelles de cette compétition, l’évaluation de la qualité d’un chercheur repose essentiellement sur le nombre de ses publications, sur leur impact – mesuré par le volume des citations qu’elles génèrent – et sur le prestige des revues dans lesquelles elles sont publiées. L’importance de ces indicateurs dans l’obtention de rares financements et la progression des carrières individuelles contribue à encourager des comportements contraires à l’intégrité scientifique, tels que le recours à des pratiques frauduleuses.
Ce contexte a notamment favorisé l’émergence et la forte croissance d’organisations spécialisées dans la vente de faux articles scientifiques, les « paper mills » ou « fabriques à articles ». Ces dernières sont suspectées d’avoir produit des milliers d’articles au cours des dix dernières années, compromettant des pans entiers de la littérature scientifique. Dans notre étude, publiée dans le British Medical Journal (BMJ) en janvier 2026, nous estimons que plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024.
Alors que ces articles représentaient moins de 1 % des publications scientifiques annuelles en 1999, leur taux s’élève désormais à 15 % du contenu produit chaque année. La recherche contre le cancer est en danger : les fausses publications se répandent, et une intensification de ce problème est à prévoir.
Les « fabriques à articles scientifiques » produisent et vendent en quantités quasi industrielles de faux articles scientifiques. Elles adoptent même des techniques de marketing classique, en faisant de la publicité en ligne et en proposant à leurs clients de sélectionner leur place dans la liste des auteurs d’un article préfabriqué (la première et la dernière position étant souvent perçues comme plus prestigieuses) ainsi que le niveau de réputation du journal dans lequel l’article sera publié. Des recherches ont montré que le coût de ce service pouvait varier de quelques centaines à plusieurs milliers d’euros, et d’aucuns suspectent que certaines « fabriques à articles » pourraient même fournir un « service après-vente », par exemple apporter des corrections ou des réponses aux commentaires des lecteurs après publication, sur les sites des éditeurs ou sur les plateformes collaboratives, comme PubPeer.
Le nombre de publications attribuées aux « fabriques à articles » a explosé au début des années 2010, attestant l’existence d’un système frauduleux à grande échelle. L’essor de ces organisations est souvent présenté comme une conséquence de la culture dite du « Publish or Perish » (« Publier ou périr »), qui séduit une clientèle, composée de doctorants, de chercheurs et de cliniciens en difficulté, pour laquelle la publication est devenue une condition d’accès à un diplôme, un emploi ou une promotion.
Ce phénomène est d’ailleurs amplifié par l’existence d’agents intermédiaires et de réseaux organisés qui dépassent la simple production de manuscrits et interviennent en contournant et en accélérant les processus éditoriaux et de publication (les articles frauduleux peuvent être acceptés et publiés beaucoup plus rapidement que les articles authentiques). Cette collusion entre fabricants et éditeurs peu scrupuleux contribue à augmenter fortement la cadence de publication d’articles frauduleux, au point qu’elle peut largement dépasser celle des articles authentiques.
Les fabriques tirent leur productivité de modèles de rédaction prédéfinis, qui réutilisent souvent des fragments de texte et d’images issus de leurs productions précédentes. Cette méthode a favorisé la publication d’articles présentant des similarités de forme, comportant les mêmes tournures de phrases, les mêmes schémas expérimentaux ainsi que les mêmes erreurs méthodologiques ou stylistiques dans la littérature biomédicale, et notamment dans la recherche contre le cancer.
Ces indices permettent de suivre leur piste et d’identifier systématiquement leurs productions, comme dans le cas des images manipulées ou des « phrases torturées » (des reformulations hasardeuses de termes techniques, par exemple « péril de la poitrine » à la place de « cancer du sein »).
Notre combat contre la fraude scientifique débute en 2024 lorsque Baptiste Scancar, auteur de cet article, alors étudiant en master de science des données, part en Australie pour travailler sur la fraude scientifique avec Jennifer A Byrne (professeure de cancérologie à l’Université de Sydney) et Adrian Barnett (professeur de statistiques à la Queensland University of Technology). Jennifer avait constaté depuis des années le dévoiement de sa discipline, l’oncologie moléculaire, contaminée à grande échelle par les fausses publications, sans prise de conscience des communautés ni des institutions de recherche. L’objectif de cette collaboration était de créer une méthode généralisable à de grandes quantités d’articles pour détecter les productions des « fabriques à articles » dans le domaine du cancer, afin d’en mesurer l’ampleur et d’alerter sur le problème sous-jacent.
L’observation de fortes ressemblances stylistiques dans le titre et le résumé des articles frauduleux a conduit l’équipe à s’orienter vers des méthodes d’analyse centrées sur ces sections des articles, par ailleurs librement accessibles sur des plateformes de diffusion scientifique en ligne, comme PubMed. L’objectif est alors d’utiliser un algorithme d’intelligence artificielle pour différencier les articles authentiques des articles frauduleux, en identifiant des motifs communs à une liste d’articles identifiés comme frauduleux par l’observatoire Retraction Watch. Cette approche est finalement couronnée de succès, atteignant des performances d’identification très élevées (9 articles sur 10 sont bien classés par l’algorithme).
Après cette première étape, le projet se poursuit en France depuis 2025. L’équipe est complétée par David Causeur, également auteur de cet article. L’outil est amélioré par une analyse fine des erreurs d’identification et la méthodologie est affinée. Le modèle est alors utilisé pour analyser l’ensemble des publications liées au cancer depuis 1999, soit plus de 2,5 millions d’articles accessibles dans la base de données de PubMed, et les résultats sont alarmants. Environ 250 000 articles, quasiment 10 % des études, sont signalés comme textuellement similaires à des productions de fabriques à articles. Leur nombre est passé de 238 en 1999 à plus de 26 000 en 2020. Cette progression n’épargne pas les revues les plus prestigieuses (top 10 des journaux), où la proportion d’articles signalés dépasse également 10 % en 2022.
La répartition géographique des auteurs met en évidence une prédominance marquée de la Chine, avec près de 180 000 articles recensés, loin devant les États-Unis (10 500 articles) et le Japon (6 500 articles). Les publications suspectes sont retrouvées dans des revues de nombreux éditeurs, couvrant l’ensemble des types de cancer et la plupart des thématiques de recherche.
La présence massive d’articles frauduleux dans le domaine du cancer pose plusieurs problèmes majeurs.
Tout d’abord, le partage des connaissances scientifiques est aujourd’hui pollué massivement par les fausses informations, et les acteurs de la recherche peinent à mettre en place des actions correctives. L’ampleur de ces infractions majeures à l’intégrité scientifique doit aussi conduire à une réflexion sur le poids donné au volume des publications dans l’évaluation des projets de recherche et des équipes de chercheurs elles-mêmes. La validation implicite de connaissances scientifiques frauduleuses par leur publication, parfois dans des revues prestigieuses, compromet les processus d’attribution de financements et ouvre la voie à leur propagation en cascade par citation.
Par ailleurs, la recherche fondamentale sur le cancer, qui constitue la cible privilégiée des « fabriques à articles », précède le développement de traitements thérapeutiques, dont l’efficacité est menacée par la fraude à grande échelle, au détriment des patients.
Le développement récent des modèles de langage génératif, tels que ChatGPT, menace de rendre la détection des contenus frauduleux plus difficile et pourrait décupler la productivité de ces organisations. Par analogie avec le dopage dans le sport, il est à craindre que ce jeu du chat et de la souris entre détecteurs et fraudeurs ne débouche pas sur une éradication du problème, mais sur une escalade des stratégies de fraude.
En revanche, les politiques publiques d’évaluation de la recherche peuvent y remédier, en réduisant la pression à la publication que subissent les chercheurs. Il est urgent de redonner à la qualité intrinsèque des productions scientifiques plus de place dans leur évaluation, avant que la distinction entre contenu authentique et fabriqué devienne impossible.
Baptiste Scancar a reçu des financements du National Health and Medical Research Council (NHMRC), organisme Australien de financement de la recherche médicale.
David Causeur a reçu des financements de l'ANR.
26.02.2026 à 09:53
Shinichi Sunagawa, Associate Professor at the Department of Biology, Swiss Federal Institute of Technology Zurich
Chris Bowler, Directeur du laboratoire de génomique des plantes et des algues à l'Institut de Biologie, École normale supérieure (ENS) – PSL; Centre national de la recherche scientifique (CNRS)

For decades, we have thought of coral reefs as the “rainforests of the sea:” vibrant, complex ecosystems full of fish, sponges, and coral. However, our recent findings suggest we’ve been overlooking a crucial part of this picture. By looking beyond the colourful life into the microscopic world, we have uncovered a “hidden chemical universe” that could hold the key to the next generation of life-saving medicines.
Our work, published in Nature, is the result of an international collaborative effort between the Sunagawa, Paoli, and Piel labs, alongside the Tara Ocean Foundation: France’s first foundation to be recognised as promoting public interest in the world’s oceans, founded by Agnès Troublé alias French Fashion designer agnès b. By combining our expertise in marine ecology, microbiology, and biotechnology, we have taken a closer look at corals. Far more than just individual animals, we prefer to think of them as super-organisms: bustling cities where the coral animal provides the living architecture, while trillions of microbes inhabit them, carrying out vital services.
What we found within these microscopic communities was staggering. After analysing 820 samples from 99 coral reefs across the Pacific, we reconstructed the genomes of 645 microbial species living within the corals. The surprise? More than 99% of them were completely new to science. Deciphering their genetic code revealed that these tiny residents are not silent “germs,” but prolific chemical engineers. They harbour a greater variety of biosynthetic blueprints for natural products than has been documented in the entire global open ocean so far.
Our discovery didn’t happen in a single laboratory. It began aboard the 118-foot research schooner Tara, designed to withstand Arctic ice. After completing an extensive exploration of plankton across the global ocean, Tara served as our floating laboratory for the Tara Pacific mission. Over several years, our team visited 99 reefs across the Pacific. Life on Tara combined rugged seafaring with high-tech biology: while the crew managed the ship, teams of divers collected coral samples from remote archipelagos thousands of miles apart.
Back on land, the real detective work began. DNA sequencing at the French National Center of Sequencing (Genoscope) and genome reconstruction using ETH Zurich’s supercomputers allowed us to decode the genetic information from these microbes.
This enabled us to map Pacific coral microbiomes at an unprecedented scale. We found that microbes are highly specific to their coral hosts; each coral species has its own unique microbial fingerprint, shaped over millions of years of evolution.
Most current medical drugs were originally discovered in nature, many from soil bacteria. But we are running out of new “soil” leads, and antibiotic-resistant “superbugs” pose a growing global threat.
Here is where the tiny but mighty “chemical engineers” come in. Within their DNA, these microbes encode Biosynthetic Gene Clusters: instruction manuals for building diverse biochemical molecules, including antibiotics. Because coral-associated microbes live in the highly competitive reef environment, they have evolved sophisticated chemical weapons to defend their hosts or fight rivals. By identifying these Biosynthetic Gene Clusters, we have uncovered a “molecular library” written in a language we are only just beginning to translate. These chemicals may provide solutions to biotechnological challenges and human diseases.
Our discovery of new microbial species and biochemical diversity in corals is just the beginning. The Tara Pacific expedition studied only a handful of coral species, while at least 1,500 have been described worldwide, highlighting the enormous potential for scientific breakthroughs. But a tragedy is unfolding: as climate change warms the oceans, reefs are dying. When a reef disappears, we don’t just lose a beautiful ecosystem, we witness the “burning” of this library before we’ve had a chance to read the books.
The journey that began on Tara is now a race against time to unlock the secrets contained in the microbiomes of coral and other reef organisms before they are lost forever. Protecting reefs is critical, not only for the environment and the millions of people who directly depend on them, but also for preserving the biological pharmacy that could safeguard human health for generations to come.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Shinichi Sunagawa received funding from the Swiss National Science Foundation.
Chris Bowler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 17:08
Shinichi Sunagawa, Associate Professor at the Department of Biology, Swiss Federal Institute of Technology Zurich
Chris Bowler, Directeur du laboratoire de génomique des plantes et des algues à l'Institut de Biologie, École normale supérieure (ENS) – PSL; Centre national de la recherche scientifique (CNRS)

Depuis des décennies, nous voyons les récifs coralliens comme les « forêts tropicales aquatiques » : des écosystèmes colorés et complexes regorgeant de poissons, d’éponges et de coraux. Cependant, nos recherches récentes suggèrent que cette vision passe sous silence un aspect crucial des récifs coralliens. Au-delà de leurs couleurs si vivaces, ils abritent tout un monde microscopique. Cet univers caché se compose de nombreux ingénieurs chimistes, qui pourraient détenir les clés d’une prochaine génération de médicaments vitaux.
Nos travaux, publiés aujourd’hui dans Nature, fruit d’une collaboration internationale entre mon laboratoire et ceux des professeurs Paoli et Piel avec la Fondation Tara Océan, montrent que les coraux ne sont pas de « simples » animaux individuels, mais plutôt des « super-organismes ». On pourrait les imaginer comme des villes animées où le récif corallien fournit un habitat vivant à des milliards de microbes qui y accomplissent des fonctions vitales.
Ce que nous avons découvert au sein de ces communautés microscopiques nous a stupéfiés : en analysant 820 échantillons provenant de 99 récifs coralliens à travers le Pacifique, nous avons reconstitué le génome de 645 espèces microbiennes vivant dans les coraux… dont plus de 99 % étaient totalement inconnues.
Qui plus est, nos études génétiques montrent que ces minuscules résidents ne sont pas passifs, mais des ingénieurs chimistes prolifiques : ils abritent dans leur ADN une immense variété de « plans » biosynthétiques (qui visent la formation de composés chimiques par des êtres vivants, des bactéries par exemple). Cette variété est plus grande que ce qui a été documenté jusqu’à présent dans l’ensemble des océans du monde.
Notre découverte a commencé à bord de la goélette de recherche Tara, longue de 36 mètres et conçue pour résister à la glace arctique. Après avoir mené une exploration approfondie du plancton dans les océans du globe, Tara nous a servi de laboratoire flottant pour la mission Tara Pacific. Pendant plusieurs années, notre équipe a visité 99 récifs à travers le Pacifique. La vie à bord de Tara, c’est l’unique combinaison d’une navigation pas toujours paisible et d’une biologie high tech : tandis que l’équipage gérait le navire, des équipes de plongeurs collectaient des échantillons de coraux dans des archipels éloignés de plusieurs milliers de kilomètres.
De retour à terre, un vrai travail de détective a commencé. Le séquençage de l’ADN au Centre national de séquençage français (Genoscope) et la reconstruction des génomes à l’aide des supercalculateurs de l’ETH Zurich nous ont permis de décoder les informations génétiques des microbes coralliens.
Ainsi est apparue une carte des microbiomes coralliens du Pacifique, à une échelle inédite. Nous avons découvert que les microbes sont très spécifiques à leurs hôtes coralliens ; chaque espèce de corail possède sa propre empreinte microbienne façonnée au cours de millions d’années d’évolution.
La plupart des médicaments actuels ont été découverts dans la nature, le plus souvent à partir de bactéries du sol. Mais aujourd’hui, les bactéries résistantes aux antibiotiques constituent une menace mondiale croissante et nous sommes à court de nouvelles pistes dans le sol.
À lire aussi : De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar
C’est là que les minuscules mais puissants « ingénieurs chimistes » des récifs coralliens prennent toute leur importance en termes d’applications potentielles. Dans leur ADN, ces microbes codent des ensembles de gènes biosynthétiques : des manuels d’instructions pour construire diverses molécules biochimiques, y compris des antibiotiques.
En effet, comme les microbes associés aux coraux vivent dans l’environnement hautement compétitif des récifs, ils ont développé des armes chimiques sophistiquées pour défendre leurs hôtes ou combattre leurs rivaux. En identifiant ces ensembles de gènes biosynthétiques, nous avons donc découvert une « bibliothèque moléculaire » écrite dans un langage que nous commençons seulement à traduire. Ces substances chimiques pourraient peut-être apporter des solutions aux défis biotechnologiques et aux maladies humaines.
Notre découverte de nouvelles espèces microbiennes et de la diversité biochimique des coraux n’est qu’un début. L’expédition Tara Pacific n’a étudié qu’une poignée d’espèces de coraux, alors qu’au moins 1500 ont été décrites dans le monde entier, ce qui suggère un énorme potentiel de percées scientifiques.
Mais une tragédie est en train de se dérouler : à mesure que le changement climatique réchauffe les océans, les récifs coralliens meurent. Lorsqu’un récif disparaît, nous ne perdons pas seulement un magnifique écosystème, nous assistons à la « combustion » de cette bibliothèque, avant même d’avoir eu la chance d’en lire les livres.
Le voyage qui a commencé sur Tara est désormais une course contre la montre pour percer les secrets contenus dans les microbiomes des coraux et autres organismes récifaux avant qu’ils ne disparaissent à jamais. Il est essentiel de protéger les récifs, non seulement pour l’environnement et les millions de personnes qui en dépendent directement, mais aussi pour préserver la pharmacie biologique qui pourrait protéger la santé humaine pour les générations à venir.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Shinichi Sunagawa a reçu des financements de la Swiss National Science Foundation.
Chris Bowler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 16:48
Mark Nielsen, Associate Professor, School of Psychology, The University of Queensland
La vidéo d’un petit singe blotti contre une peluche a ému la planète. Derrière l’émotion, elle rappelle une leçon majeure de la psychologie : on ne grandit pas seulement avec de la nourriture, mais avec du lien.
Sa quête de réconfort a ému des millions d’internautes. Punch, un bébé macaque, est devenu une célébrité d’Internet. Abandonné par sa mère et rejeté par le reste de son groupe, il s’est vu offrir par les soigneurs du zoo municipal d’Ichikawa, au Japon, une peluche d’orang-outan pour lui servir de mère de substitution. Les vidéos le montrant agrippé au jouet ont depuis fait le tour du monde.
Mais l’attachement de Punch à son compagnon inanimé ne se résume pas à une vidéo bouleversante. Il renvoie aussi à l’histoire d’une célèbre série d’expériences en psychologie, menées dans les années 1950 par le chercheur américain Harry Harlow.
Les résultats de ces travaux ont nourri plusieurs des principes fondamentaux de la théorie de l’attachement, selon laquelle le lien entre le parent et l’enfant joue un rôle déterminant dans le développement de ce dernier.
Harry Harlow a séparé des singes rhésus de leur mère dès la naissance. Ces petits ont ensuite été élevés dans un enclos où ils avaient accès à deux « mères » de substitution.
La première était une structure en fil de fer, à laquelle on avait donné la forme d’une guenon, équipée d’un petit dispositif permettant de fournir nourriture et boisson.
La seconde était une poupée en forme de singe, recouverte d’éponge et de tissu éponge. Douce et réconfortante, elle n’apportait pourtant ni nourriture ni eau : ce n’était guère plus qu’une silhouette moelleuse à laquelle le petit pouvait s’agripper.
On se retrouve donc avec, d’un côté, une « mère » qui offre du réconfort mais ni nourriture ni boisson, et, de l’autre, une structure froide, dure et métallique, qui assure l’apport alimentaire.
Ces expériences répondaient au béhaviorisme, courant théorique dominant à l’époque. Les béhavioristes soutenaient que les bébés s’attachent à celles et ceux qui satisfont leurs besoins biologiques, comme la nourriture et l’abri.
Harlow a ainsi battu en brèche cette théorie en affirmant qu’un bébé ne se construit pas seulement à coups de biberons : il a besoin de contact, de chaleur et d’attention pour s’attacher.
Selon une lecture strictement béhavioriste, les petits singes auraient dû rester en permanence auprès de la « mère » en fil de fer, celle qui les nourrissait. C’est l’inverse qui s’est produit. Ils passaient l’essentiel de leur temps agrippés à la « mère » en tissu, douce mais incapable de leur donner à manger.
Dans les années 1950, Harlow a ainsi démontré que l’attachement repose d’abord sur le réconfort et la tendresse. Face au choix, les bébés privilégient la sécurité affective à la simple satisfaction des besoins alimentaires.
La découverte de Harlow a marqué un tournant, car elle a profondément remis en cause la vision béhavioriste dominante à l’époque. Selon cette approche, les primates – humains compris – fonctionneraient avant tout selon des mécanismes de récompense et de punition, et s’attacheraient à celles et ceux qui répondent à leurs besoins physiques, comme la faim ou la soif.
Dans ce cadre théorique, la dimension affective n’avait pas sa place. En menant ses expériences, Harlow a renversé cette grille de lecture : il a montré que l’attachement ne se réduit pas à la satisfaction des besoins biologiques, mais repose aussi, et surtout, sur le lien émotionnel.
La préférence des petits singes pour la « nourriture émotionnelle » – en l’occurrence les câlins à la mère de substitution recouverte de tissu éponge – a posé les bases de la théorie de l’attachement.
Selon cette théorie, le développement harmonieux d’un enfant dépend de la qualité du lien qu’il tisse avec la personne qui s’occupe de lui. On parle d’attachement « sécurisé » lorsque le parent ou le proche référent apporte chaleur, attention, bienveillance et disponibilité. À l’inverse, un attachement insécure se construit dans la froideur, la distance, la négligence ou la maltraitance.
Comme chez les singes rhésus, nourrir un bébé humain ne suffit pas. Vous pouvez couvrir tous ses besoins alimentaires, mais sans affection ni chaleur, il ne développera pas de véritable attachement envers vous.
Le zoo ne menait évidemment aucune expérience. Mais la situation de Punch reproduit, presque malgré elle, le dispositif imaginé par Harlow. Cette fois, ce n’est plus un laboratoire, mais un environnement bien réel – et pourtant, le résultat est étonnamment similaire. Comme les petits singes de Harlow qui privilégiaient la « mère » en tissu éponge, Punch s’est attaché à sa peluche Ikea.
Dans le cas du zoo, il manque évidemment un élément clé de l’expérience originale : il n’y a pas, en face, d’option dure mais nourricière avec laquelle comparer. Mais au fond, ce n’est pas ce que cherchait le singe. Ce qu’il voulait, c’était un refuge doux et rassurant – et c’est précisément ce que lui offrait la peluche.
Aujourd’hui, une grande partie de la communauté internationale reconnaît aux primates des droits qui, dans certains cas, s’apparentent à ceux accordés aux humains.
Avec le recul, les expériences de Harlow apparaissent comme particulièrement cruelles. On n’envisagerait pas de séparer un bébé humain de sa mère pour mener une telle étude ; pour beaucoup, il ne devrait pas davantage être acceptable de l’infliger à des primates.
Il est frappant de voir à quel point ce parallèle avec une expérience menée il y a plus de 70 ans continue de fasciner. Punch n’est pas seulement la nouvelle star animale d’Internet : il nous rappelle l’importance du réconfort et du lien.
Nous avons tous besoin d’espaces doux. Nous avons tous besoin d’endroits où nous sentir en sécurité. Pour notre équilibre et notre capacité à avancer, l’amour et la chaleur humaine comptent bien davantage que la simple satisfaction des besoins physiques.
Mark Nielsen a reçu des financements de l'Australian Research Council.
24.02.2026 à 17:03
Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.
Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.
L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.
Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.
Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.
L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.
Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.
Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.
L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.
En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.
De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.
Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.
À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse
Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.
Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.
Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.
L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.
La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.
L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.
Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.
La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.
C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.
Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.
Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.
À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.
Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.
PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.
PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.
Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.
This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.
23.02.2026 à 17:09
Rafael Almar, Chercheur en dynamique littorale, Institut de recherche pour le développement (IRD)
Erwin Bergsma, Expert en océanographie côtière, Centre national d’études spatiales (CNES)
Sophie Loyer, Ingénieur R&D, Service hydrographique et océanographique de la marine (Shom)
Bien connaître les fonds marins est crucial dans de nombreux domaines. Or, jusqu’à présent on ne savait en cartographier qu’une très faible proportion. Une nouvelle méthode permet, en utilisant des satellites, de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle des côtes du monde entier.
Nous connaissons bien les cartes topographiques des zones terrestres, avec leurs plaines, vallées, canyons et sommets. La topographie sous-marine est beaucoup moins connue, car elle est difficile à voir et à mesurer. Pourtant, lors du dernier âge glaciaire, lorsque le niveau de la mer se situait 120 mètres plus bas et qu’il était possible de traverser la Manche à pied, ces zones étaient apparentes. Dans le passé, la Méditerranée se serait également asséchée par évaporation, coupant le lien avec l’océan Atlantique à Gibraltar et révélant aux habitants de la Terre de l’époque ses fonds marins. Malheureusement, pour les explorer au sec, il faudrait que les fonds marins se découvrent, mais les prévisions actuelles de changement climatique, liées aux activités anthropiques, indiquent plutôt une hausse du niveau de la mer de l’ordre du mètre pour le XXIe siècle.
Cartographier ces fonds marins est un véritable enjeu actuel pour de multiples aspects : navigation, développement des énergies marines renouvelables (éoliennes, câbles sous-marins), mais aussi sécurité civile et risques de submersion/érosion. Ces mesures sont réalisées au moyen de navires océanographiques équipés de sondes (poids au bout d’un fil, puis échosondeurs), ce qui est coûteux et dangereux notamment lorsqu’il s’agit de s’approcher des petits fonds, en présence de vagues et de courants.
En France, c’est le Service hydrographique et océanographique de la Marine (Shom) qui est chargé de la cartographie des fonds marins pour le compte de l’État. Avec près de 11 millions de km2, la France possède la deuxième plus grande zone maritime au monde et le Shom ne peut mesurer qu’environ 1 % de cette surface. Au niveau mondial, seulement environ la moitié des zones côtières ont été mesurées, souvent une seule fois, et ces informations datent souvent de plusieurs décennies. Or, ces fonds peuvent évoluer sous l’action de mouvements tectoniques, de déplacements sédimentaires dus aux vagues et aux courants, aux rivières et aux estuaires, ainsi qu’aux dunes et bancs de sable sous-marins, aux chenaux de navigation, etc. Une réactualisation régulière est donc primordiale. Aujourd’hui, les missions de satellites d’observation de la Terre sont de plus en plus nombreuses, fréquentes et précises, offrant des capacités d’observation inégalées et en constante progression. C’est dans ce contexte que nous avons cherché à développer, avec le programme S2Shores (Satellites to Shores), une approche permettant d’utiliser cette nouvelle opportunité pour cartographier l’ensemble des fonds marins côtiers à l’échelle mondiale par satellite.
Dans un environnement côtier très dynamique, il est essentiel pour la sécurité de la navigation de disposer d’un état actualisé des fonds marins. Cela permet également d’améliorer la précision des modèles de vagues, de marée et de courants, dont les performances dépendent principalement de la connaissance de l’état des fonds marins. Face à l’augmentation des risques de submersion et d’érosion côtières liée au changement climatique, il est essentiel de pouvoir anticiper et prévenir ces phénomènes dans le cadre d’événements extrêmes. Cela permet également de réaliser des bilans sédimentaires en quantifiant les stocks de sable. Dans les pays du Sud, qui ne bénéficient pas de moyens traditionnels coûteux de cartographie des fonds marins, les promesses offertes par ces nouvelles techniques satellitaires, ainsi que les attentes, sont grandes.
Les méthodes satellitaires existantes pour estimer les fonds marins sont principalement basées sur l’observation directe du fond : on mesure ce que l’on voit. Cette approche est efficace dans les eaux claires et transparentes, comme dans les atolls, mais elle est moins performante dans les eaux turbides et troubles, comme autour des panaches de rivières, dans les zones sableuses ou vaseuses. En moyenne, on considère que la profondeur atteignable est d’environ 15 mètres. Une calibration avec des mesures sur place, dites in situ, est la plupart du temps nécessaire.
L’approche que nous avons développée est fondée sur une méthode inverse : on mesure les vagues dont les caractéristiques géométriques (longueur d’onde, c’est-à-dire la distance entre deux crêtes) et cinématiques (vitesse) sont modulées par les fonds marins en zone côtière afin d’estimer la profondeur. Cette méthode permet d’étendre le champ d’application des méthodes spatiales aux eaux turbides et plus profondes, jusqu’aux plateaux continentaux, à des profondeurs de plus de 50 mètres, soit une augmentation potentielle de +58 % ou 3,1 millions de km2 par rapport aux méthodes basées sur la couleur de l’eau avec une moyenne mondiale grossière de visibilité des fonds de 15 mètres.
En pratique, nous utilisons les images optiques des satellites de la mission Sentinel-2 de l’Agence spatiale européenne, qui offrent une réactualisation régulière, de l’ordre de cinq à dix jours selon les zones, avec une résolution de 10 mètres. Sentinel-2 dispose de plusieurs bandes de couleur, dont le rouge et le vert, que nous utilisons ici. Ces bandes ne sont pas acquises exactement au même moment. C’est ce décalage d’environ 1 seconde entre ces deux bandes que nous exploitons pour détecter la propagation des vagues, de l’ordre de 1 à 10 mètres par seconde. Tout cela est possible avec un satellite qui passe à environ 700 km d’altitude et 7 km par seconde.
Établir cet atlas global des fonds marins des zones côtières est également une prouesse en termes de traitement de masse de plus d’un million d’images sur le supercalculateur TREX du Cnes, où sont également stockées toutes ces images pour un temps d’accès minimum.
Une chaîne de traitement a été réalisée dans le cadre du programme S2Shores afin d’optimiser ces traitements de manière automatisée.
Nous continuons à faire progresser le cœur du code d’estimation des fonds marins et incorporons différentes missions, comme la récente C03D développée conjointement par le Cnes et Airbus Defence and Space. Après cette démonstration globale à basse résolution (1 km), ces codes sont ouverts et libres d’utilisation pour répondre à des besoins spécifiques, comme des projets d’aménagement, par exemple, ou dans le cadre de jumeaux numériques pour réaliser des scénarios d’inondation ou d’érosion côtière, lorsqu’ils sont combinés à un modèle numérique.
Rafael Almar a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)
Erwin Bergsma a reçu des financements du CNES.
Sophie Loyer a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)
23.02.2026 à 11:37
Gaurav Gupta, Professor of AI and Digital Entrepreneurship, Neoma Business School
Neha Chaudhuri, Professeur en management de l'information, TBS Education

L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?
Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.
L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.
Mais ce n’est pas le cas.
Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.
Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.
C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.
Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.
Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.
Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.
Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.
À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail
Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.
Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».
Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.
Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :
Traducteur des expertises
Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.
Tâches fastidieuses
L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.
La dernière phase, celle du suivi, recèle un danger caché.
Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.
À lire aussi : Et si votre prochain collègue était un agent IA ?
Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.
Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.
Une stratégie en fonction des étapes
Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.
Au cours de la phase de lancement
Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.
Au cours de la phase d’exécution
Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.
Au cours de la phase de suivi
Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
22.02.2026 à 08:17
Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.
Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.
Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.
These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.
For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.
Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.
To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.
While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.
Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.
For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.
À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation
To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.
However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.
To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.
One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.
Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.
For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.
Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.
This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.
In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.
Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.
However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.
In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.
To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.
PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.
At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.
18.02.2026 à 16:57
David Reid, Professor of AI and Spatial Computing, Liverpool Hope University

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.
Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.
Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.
Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.
Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.
Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.
Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.
La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.
Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.
Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».
Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.
Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.
Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.
Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.
On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.
Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.
Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.
Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.
Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.
La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.
Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.
Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.
Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.
Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.
Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».
Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.
La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.
Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.
La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.
David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 12:02
Alessia Lefébure, Sociologue, membre de l'UMR Arènes (CNRS, EHESP), École des hautes études en santé publique (EHESP)
Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Pourtant, le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.
Restrictions de visas pour les chercheurs et étudiants étrangers, attaques politiques visant certaines des plus grandes universités de recherche, suspensions soudaines de financements publics, notamment dans le champ du climat et de l’environnement : depuis la réélection de Donald Trump en novembre 2024, ces décisions ont suscité une forte surprise médiatique. Elles sont souvent présentées comme une rupture brutale avec le modèle américain de soutien à la science. Les titres alarmistes de la presse internationale parlent d’une « guerre ouverte contre les universités », d’un « assèchement accéléré des financements scientifiques » ou encore de « science assiégée ».
Pourtant, si leur forme et leur rapidité frappent, leur logique est beaucoup moins nouvelle. Ces mesures s’inscrivent dans des tendances de fond et désormais structurelles. Elles accélèrent des fragilités identifiées de longue date : un désengagement relatif et discontinu de l’investissement public, un recours croissant aux financements privés, une concentration des ressources dans quelques secteurs et institutions, et surtout une dépendance durable à l’égard des doctorants et chercheurs étrangers pour l’avancée de nombreux fronts de science.
Le leadership scientifique américain est le produit d’une trajectoire historique spécifique. À partir des années 1950, dans le contexte de la guerre froide, l’État fédéral investit massivement dans la recherche et l’enseignement supérieur, parallèlement à l’effort déployé par les nombreuses fondations philanthropiques privées. Financement public, autonomie académique et ouverture internationale forment alors un ensemble cohérent, au service du soft power américain. Pendant plusieurs décennies, les indicateurs convergent : domination de la production scientifique, capacité d’innovation, attractivité internationale exceptionnelle, accumulation de prix Nobel.
Cet équilibre commence toutefois à se fragiliser dès les années 1990. En valeur absolue, les États-Unis restent le premier financeur mondial de la recherche, avec une dépense intérieure de recherche et développement (R&D) représentant environ 3,4 % du PIB au début des années 2020. Mais la répartition de cet effort a profondément évolué : près de 70 % de la R&D américaine est désormais financée par le secteur privé, tandis que l’effort fédéral de recherche stagne autour de 0,7 % du PIB. Cette dynamique contraste avec celle de plusieurs pays asiatiques, notamment la Chine, où la dépense publique de R&D a fortement augmenté depuis les années 2000 dans le cadre de stratégies nationales continues.
Le financement public devient plus erratique : les universités se tournent davantage vers les frais d’inscription et les partenariats privés, tandis que formations longues et carrières scientifiques deviennent moins accessibles pour une partie des étudiants américains. La toute dernière réforme, engagée en 2026 par l’administration Trump, en plafonnant fortement les prêts fédéraux pour les cycles de master et de doctorat – qui permettaient jusqu’ici de couvrir l’intégralité du coût des études – réduira davantage la capacité des universités à former sur le long terme, en particulier dans les disciplines scientifiques et technologiques exigeant plusieurs années de formation.
À lire aussi : États-Unis : la dette étudiante, menace pour les universités et enjeu politique majeur
Le film Ivory Tower, réalisé en 2014 par le cinéaste Andrew Rossi et nourri des analyses du sociologue Andrew Delbanco, alertait déjà sur les signes d’épuisement du modèle universitaire américain. C’est dans ce contexte que la dépendance aux étudiants et doctorants étrangers s’accroît fortement, en particulier dans les mathématiques, les technologies et les sciences des données.
Les rapports annuels de la National Science Foundation montrent que, déjà au milieu des années 2010, les titulaires de visas temporaires représentent une part décisive – souvent majoritaire – des doctorants dans plusieurs disciplines clés : près des deux tiers des doctorats en informatique, plus de la moitié en ingénierie et en mathématiques. La grande majorité d’entre eux (80 %) restent ensuite aux États-Unis si la politique migratoire le leur permet.
Cette dépendance, qui n’a fait qu’augmenter, n’est pas marginale : elle constitue désormais un pilier du fonctionnement quotidien de la recherche américaine. Les restrictions migratoires mises en œuvre sous la première administration Trump, puis durcies en 2025, ne font que rendre pleinement visible une vulnérabilité stratégique pour l’avenir du pays.
Les évolutions de la science américaine ont pris place dans un contexte mondial profondément transformé depuis les années 1990. Les dépenses de recherche et développement progressent rapidement en Asie, tandis que la part relative des États‑Unis et de l’Europe tend à se stabiliser voire à baisser dans de nombreux pays de la zone OCDE.
La trajectoire chinoise est à cet égard centrale. Depuis plus de trente ans, la Chine a engagé une stratégie continue, combinant investissements massifs, planification de long terme, développement des « laboratoires clés », redéfinition des règles du jeu des classements internationaux, montée en gamme des formations doctorales, politiques actives de publication et de retour des chercheurs expatriés. Cette trajectoire ne relève pas d’un simple rattrapage technologique, mais d’une appropriation sélective de modèles de formation, d’organisation et de gouvernance scientifique, en partie inspirés de l’expérience américaine.
Les résultats sont aujourd’hui tangibles : progression rapide des publications scientifiques – la Chine est devenue en 2024 le premier pays au monde en volume d’articles indexés dans la base Web of Science, avec près de 880 000 publications annuelles, contre environ 26 000 au début des années 2000 – et surtout une présence croissante dans les dépôts de brevet : près de 1,8 million de demandes en une seule année, soit plus de trois fois le volume américain, selon l’Organisation mondiale de la propriété intellectuelle (OMPI/WIPO).
À cela s’ajoutent des politiques ciblées pour attirer ou faire revenir des chercheurs chinois formés à l’étranger, contribuant à réduire progressivement l’asymétrie historique avec les États-Unis. Loin de produire une ouverture politique, cette circulation maîtrisée des modèles contribue à la modernisation de l’État tout en renforçant les capacités de contrôle et de légitimation du pouvoir sur les élites scientifiques et administratives.
L’article récent du New York Times soulignant le recul relatif de Harvard et d’autres universités américaines dans certains classements mondiaux a été interprété comme une sonnette d’alarme, le signe d’un déclin soudain. En réalité, ces classements mettent en lumière surtout des évolutions graduelles des positions relatives, révélatrices des recompositions engagées de longue date. Les universités américaines demeurent prestigieuses et sélectives, mais elles ne sont plus seules au sommet dans un paysage scientifique désormais multipolaire.
Les indicateurs internationaux de l’innovation prolongent ce constat : en valeur absolue, les États-Unis restent l’un des premiers investisseurs mondiaux en recherche et développement. Mais leur avance relative s’érode : depuis le début des années 2000, la progression de leur effort de R&D est nettement plus lente que celle de nombreux pays concurrents.
Au-delà des décisions de l’administration Trump, les causes sont structurelles : continuité et niveau de l’investissement public, capacité à former et retenir les talents, cohérence des orientations scientifiques, place accordée à la recherche fondamentale. Là où la Chine et plusieurs pays d’Asie ont inscrit la science dans des stratégies nationales de long terme, les États-Unis ont laissé s’accumuler incohérences et déséquilibres, misant sur les acquis de leur attractivité passée. Ils conservent néanmoins des universités d’un niveau exceptionnel, d’importantes capacités de financement et d’innovation ainsi qu’une puissance d’attraction encore largement dominante.
À court terme, rien n’indique un décrochage brutal. En revanche, la pérennité de ce leadership ne peut plus être tenue pour acquise. Elle est désormais directement affectée par des remises en cause explicites de l’autonomie académique et des conditions ordinaires de fonctionnement des universités.
Ce leadership dépendra de la capacité des universités à recruter librement, à l’échelle mondiale, leurs enseignants et chercheurs ; à maintenir des politiques et des programmes de formation et de recherche à l’abri des cycles politiques ; à protéger leurs dirigeantes et dirigeants des pressions partisanes ; et à garantir aux étudiants comme aux chercheurs des conditions de travail intellectuel et des perspectives professionnelles stables.
Ce sont précisément ces conditions que les décisions récentes de Donald Trump rendent durablement incertaines.
Alessia Lefébure a enseigné à Columbia University entre 2011 et 2017.
18.02.2026 à 11:54
Estelle Davet, Inspectrice générale, cheffe du service national de police scientifique (SNPS)
À Écully, dans le Rhône, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime. Découvrez l’odorologie.
En janvier 2012, à Montceau-les-Mines (Saône-et-Loire), un homme cagoulé braque une banque dès l’ouverture. Quelques mois plus tard, un second établissement de la même ville est attaqué selon un mode opératoire similaire.
Les enquêteurs disposent de vidéos de surveillance, mais les images sont trop imprécises pour identifier formellement le suspect. L’ADN, habituellement décisif, ne livre aucun résultat exploitable. Reste une trace, plus discrète, presque invisible : l’odeur laissée dans le véhicule utilisé pour la fuite. C’est cette trace que la police scientifique va exploiter grâce à une de ses techniques d’expertise : l’odorologie, une discipline encore méconnue du grand public où des chiens spécialement formés procèdent à la comparaison et à l’identification d’odeurs humaines. Au procès, cette expertise permet la condamnation du braqueur.
Lorsque nous évoquons les chiens policiers, l’image des unités déployées sur le terrain, mobilisées dans la détection d’explosifs, de stupéfiants ou encore la recherche de personnes disparues, s’impose naturellement. Cependant, à côté de cette réalité opérationnelle se déploie une autre activité, moins visible : celle des chiens et de leurs maîtres œuvrant au sein de la police scientifique.
En France, il existe un lieu unique appelé le plateau national d’odorologie, qui réunit les seuls chiens capables de comparer une trace odorante laissée sur une scène d’infraction avec l’odeur corporelle d’un suspect ou d’une victime. Cette spécialité cynophile, créée en 2000 (par Daniel Grignon, cynotechnicien formé en Hongrie) devient pleinement opérationnelle à partir de 2003.
Aujourd’hui, l’activité d’odorologie s’appuie sur quatre agents et sept chiens (bergers belges malinois, bergers allemands, épagneul English Springer) qui, comme les experts humains en laboratoire, n’interviennent pas sur le terrain mais travaillent exclusivement au sein du plateau national d’Écully (à côté de Lyon, Rhône), où ils procèdent aux comparaisons odorantes. Deux autres chiens sont actuellement en formation, entamée à l’âge de six mois pour une durée d’environ un an.
Toute analyse en odorologie débute par une phase de prélèvement, déterminante pour la suite de la procédure. Réalisés exclusivement par des policiers habilités (500 préleveurs habilités de la police nationale en 2025), les prélèvements portent sur deux types d’odeurs complémentaires.
D’une part, les traces odorantes sont recueillies sur les lieux de l’infraction, à partir de tout support ayant été en contact avec une personne, qu’il s’agisse d’un siège, d’un volant, d’une poignée ou d’un vêtement. D’autre part, les odeurs corporelles sont directement prélevées sur les individus mis en cause ou sur les victimes : ceux-ci malaxent pendant plusieurs minutes des tissus spécifiques afin d’y transférer les molécules odorantes caractéristiques de leur signature chimique. Ces dernières sont stockées dans une pièce spécifique : l’odorothèque où, à ce jour, 9 600 scellés judiciaires sont stockés.
Une fois les prélèvements réalisés, débute alors la phase d’analyses. Les traces odorantes prélevées sur la scène d’infraction sont comparées à l’odeur corporelle du mis en cause ou de la victime lors d’une parade d’identification réalisée par les chiens spécialement formés.
La trace est d’abord présentée au chien, qui la sent et la mémorise, puis il progresse le long d’une ligne composée de cinq bocaux contenant chacun une odeur corporelle différente : un seul correspond à l’odeur du mis en cause ou de la victime à identifier, les quatre autres servant d’odeurs de comparaison.
S’il reconnaît l’odeur à identifier, le chien se couche devant le bocal correspondant ; s’il ne reconnaît aucune des odeurs, il revient vers son maître. L’ensemble du processus dure environ 0,6 seconde, le temps pour le chien de placer son museau dans le bocal, de découvrir l’odeur qu’il contient, de l’analyser et de décider s’il doit marquer l’arrêt ou non.
La position des cinq bocaux est ensuite modifiée de façon aléatoire et le travail est répété une seconde fois avant qu’un troisième passage soit effectué sur une ligne de contrôle ne contenant pas l’odeur du mis en cause ou de la victime. Lorsque le premier chien a terminé son travail, la même opération est réalisée avec, au moins un second chien.
Une identification est considérée comme établie lorsque deux chiens ont marqué la même odeur, chacun au cours d’au moins deux passages, et que chacun d’eux a également réalisé au moins une ligne à vide.
Chaque être humain possède une odeur corporelle propre, constituée de molécules volatiles issues principalement de la dégradation bactérienne des sécrétions de la peau, comme la sueur et le sébum. Cette odeur n’est pas uniforme : elle se compose de plusieurs éléments. Seule la composante primaire de l’odeur humaine demeure stable au cours du temps. C’est précisément cette composante primaire qui est utilisée par les chiens d’odorologie pour identifier un individu, celle-ci ne pouvant pas être altérée par des composantes variables, comme le parfum.
Elle constitue une véritable signature chimique individuelle, comparable, dans son principe, à une empreinte biologique. Le chien reste le seul capable de reconnaître cette composante invariable, indispensable à l’identification. Son système olfactif explique cette performance. Lorsque les molécules odorantes pénètrent dans la cavité nasale, elles se lient aux récepteurs de l’épithélium olfactif, déclenchant un influx nerveux transmis au bulbe olfactif, puis au cerveau, où l’odeur est analysée et mémorisée.
L’odorologie s’appuie sur un protocole rigoureux, conçu pour garantir la fiabilité à la fois scientifique et judiciaire des résultats obtenus. Son recours s’inscrit dans un cadre juridique strict et est réservé aux infractions d’une certaine gravité, à partir du délit aggravé (vol avec violence, cambriolage aggravé, séquestration…) et jusqu’aux crimes.
Cette expertise, pleinement intégrée aux pratiques de la police scientifique, ne statue pas à elle seule sur la culpabilité d’un individu, mais apporte un élément objectif essentiel au raisonnement judiciaire. Lorsqu’un rapprochement est établi, elle atteste un fait précis : la présence d’un individu (auteurs ou victimes) sur une scène d’infraction ou un contact avec des objets.
Cette technique intervient souvent en complément d’autres moyens d’investigation, mais elle peut aussi devenir déterminante lorsque les images sont floues, les témoignages fragiles ou les traces biologiques absentes. Depuis 2003, 787 dossiers ont été traités par le plateau national d’odorologie, aboutissant à 195 identifications. Les experts ont été appelés à témoigner 44 fois devant des cours d’assises, preuve de la reconnaissance judiciaire de cette discipline.
À l’heure où les avancées technologiques occupent une place centrale dans la police scientifique, l’odorologie rappelle que le vivant demeure parfois irremplaçable. Fondée sur un processus complexe et rigoureux, conforme aux exigences de la norme NF EN ISO/CEI 17025, la comparaison d’odeurs ne laisse aucune place au hasard. Elle s’inscrit dans un faisceau d’indices, contribuant à la manifestation de la vérité.
Invisible, silencieuse, mais persistante, cette expertise rappelle que le crime laisse toujours une trace, faisant écho au principe formulé dès 1920 par Edmond Locard : « Nul ne peut agir avec l’intensité que suppose l’action criminelle sans laisser des marques multiples de son passage. »
Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.
Estelle Davet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 11:53
Charlotte De Sainte Maresville, Doctorante 3 eme année en marketing et sciences affectives, Université Bretagne Sud (UBS)
Christine Petr, Professeur des Université en Marketing - Sciences de Gestion et du Management, Université Bretagne Sud (UBS)
Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.
Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.
Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.
Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?
L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.
Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.
Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.
Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.
Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.
Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.
En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.
Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).
Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.
Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.
Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.
Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.
Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.
Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.
Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.
À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?
Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.
Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.
En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.
Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.
Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.
Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.
Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.
Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.