04.03.2026 à 09:14
Alban Guyomarc'h, Doctorant en droit spatial et en droit international privé, Université Paris-Panthéon-Assas; École normale supérieure (ENS) – PSL

En 2026 est prévu un lancement très attendu – et déjà reporté plusieurs fois : celui d’Artemis-2, la deuxième mission du programme d’exploration lunaire Artemis, débuté en 2017 par la Nasa et ses partenaires. Fin 2026, c’est la Chine qui doit envoyer une mission robotisée au pôle Sud lunaire, Chang’e-7, tandis que l’Inde prépare l’alunissage de Chandrayaan-4 pour 2027.
Dans la mission Artemis-2, qui doit emmener quatre astronautes survoler notre satellite naturel avant de revenir sur Terre, tout semble baigner dans un parfum de guerre froide, comme un écho lointain du programme Apollo. La fusée SLS (pour Space Launch System), haute de cent mètres, rappelle la Saturn-5 qui propulsait autrefois les astronautes vers la Lune. La capsule Orion évoque le Command Module d’hier, panneaux solaires en plus. Même la rhétorique états-unienne réactive l’idée d’une nouvelle course lunaire : non plus contre l’URSS, mais face à l’autre hégémon du moment, la Chine. Et puis il y a la destination elle-même, la Lune, dont le sol s’apprête à être foulé de nouveau.
La pièce qui se joue devant nous paraît familière. Tout y a comme un air de déjà-vu. Pourtant derrière ce décor rétro se dessinent des lignes nouvelles. Si l’on adopte les perspectives des relations internationales et du droit, le programme Artemis permet d’illustrer deux évolutions majeures : l’émergence d’un axe de compétition Nord-Sud dans l’exploration lunaire et la disruption du cadre juridique applicable dans l’espace.
Alors que la « conquête spatiale lunaire » des années 1960 ne comptait que deux superpuissances, l’URSS et les États-Unis, notre satellite naturel est aujourd’hui une destination prisée des programmes d’exploration, l’intérêt pour la Lune ayant crû au cours de la dernière décennie après un relatif désintérêt dans la période post-Apollo. Il faut prendre au sérieux cette internationalisation des ambitions d’exploration, et partant, savoir regarder les différents modèles d’exploration proposés ; tout en les rattachant à leur contexte culturel et géopolitique d’origine.
À partir de 2017, en réaction, notamment aux avancées spatiales chinoises dans les domaines de l’exploration, les États-Unis lancent progressivement le programme Artemis, visant à ramener des astronautes sur la Lune entre la fin des années 2020 et le début de la décennie 2030.
Annoncé en mars 2021, son pendant sino-russe, le programme ILRS (pour International Lunar Research Station) se propose des objectifs analogues, quoiqu’avec un calendrier différent. Il associe les compétences de deux puissances spatiales importantes que sont la Russie et la Chine. La première a déjà visé la Lune à l’été 2023 avec sa mission Luna 25 ; la seconde développe une série de missions lunaires Chang’e, depuis le début des années 2000, dont le septième opus, Chang’e-7, est une mission robotisée (et non habitée) qui doit décoller pour le pôle Sud lunaire fin 2026, avec un programme scientifique ambitieux.
Dans le sillage de ces deux programmes massifs que sont Artemis et l’ILRS, on trouve toute une série de missions plus modestes, optant pour une exploration robotisée de la surface de la Lune.
L’Inde, par exemple, poursuit ses lancements dans le cadre du programme Chandrayaan (Chandrayaan-3, a atteint le pôle Sud de la Lune en août 2023) et le pays ne cache pas ses ambitions dans le domaine du vol habité.
Parallèlement à ces projets, le Japon conduit une série de missions robotisées, dont certaines en coopération avec des start-up, et notamment ispace, une entreprise basée au Japon, aux États-Unis et au Luxembourg. Ce dernier se veut le fer-de-lance de la prospection de ressources spatiales à l’échelle européenne. L’Europe, via l’Agence spatiale européenne (ESA), développe, au-delà de ses coopérations avec la Nasa, une série de programmes lunaires futurs, et notamment l’atterrisseur lunaire Argonaut, pour début 2030.
Enfin, d’autres États se greffent à des missions lunaires existantes, c’est ainsi que la mission japonaise Hakuto-R1 embarquait en 2022 un rover émirati, Rashid ou que la mission chinoise Chang’e-6 a permis le placement en orbite lunaire du satellite pakistanais d’observation lunaire ICUBE-Q en 2024.
Les concepteurs des programmes Artemis et ILRS ont vu dans cette internationalisation des ambitions lunaires l’occasion de faire de la Lune un terrain de coopération ; ce qui constitue, là aussi, une nouveauté.
Les États-Unis coopèrent ainsi avec les États européens, notamment via l’ESA, avec le Japon ou encore avec le Canada. En face, la Chine et la Russie ont souhaité coopérer, selon des modalités qui demeurent floues, avec le Venezuela, l’Afrique du Sud, l’Azerbaïdjan, le Pakistan, la Biélorussie, l’Égypte, la Thaïlande, le Kazakhstan et le Sénégal. Si l’attention des chercheurs à l’égard d’Artemis est acquise, les travaux sur le réseau de coopération de l’ILRS sont encore assez rares.
In fine, cette carte de la coopération lunaire dit aussi beaucoup des évolutions de la géopolitique spatiale du siècle, qui ne tourne plus autour d’un axe Est-Ouest hérité de la guerre froide, mais autour d’un axe Nord global-Sud global – même s’il faut noter la participation d’États du Nord global à des missions lunaires chinoises, et notamment la participation du Cnes, l’agence spatiale française, à la mission Chang’e-6.
C’est encore dans le cadre du programme Artemis qu’il faut replacer deux innovations juridiques faisant de la Lune le terrain de ruptures majeures pour le droit de l’espace.
Ayant principalement pour objet la question de la propriété des ressources spatiales, ces ruptures sont venues troubler la relative stabilité du cadre constitué jusqu’alors par le traité de l’Espace de 1967, et dans une moindre mesure, par l’accord sur la Lune de 1979. Par l’article II du traité de l’Espace, l’espace extra-atmosphérique et notamment les corps célestes sont frappés d’un principe de non-appropriation ; tandis que dans l’article XI de l’accord sur la Lune, les ressources spatiales sont constituées en patrimoine commun de l’humanité.
Mais l’intérêt manifesté par quelques entreprises états-uniennes pour le sol lunaire et ce qu’il contiendrait d’exploitable (le conditionnel est vraiment de mise) a réveillé leur imaginaire juridique, ensuite relayé par le droit de la première puissance spatiale.
Ainsi, la première rupture date du Space Act de 2015, quand les États-Unis ont introduit en droit interne la possibilité de s’approprier légalement les ressources extraites dans l’espace. La proposition est pour le moins en délicatesse avec le droit international applicable, et notamment avec le principe de non-appropriation évoqué précédemment – ce que n’ont pas manqué de remarquer certains États aux Nations unies, dès 2016.
Néanmoins, elle a depuis fait florès, et on retrouve aujourd’hui des textes analogues en droit japonais, luxembourgeois ou encore émirati. Un groupe de travail spécifique fut même lancé aux Nations unies sur le sujet.
La seconde rupture juridique amorcée par les États-Unis concerne les accords Artemis, dont les sections 10 et 11 viennent consacrer, d’une part, la possibilité de s’approprier les ressources spatiales et, d’autre part, la possibilité de dessiner des zones de sécurité autour des installations lunaires. Là aussi, la conformité au droit de l’espace est a minima questionnable.
Mais c’est surtout la méthode employée qui interroge : les accords Artemis ne sont pas en soi un accord multilatéral concernant le droit applicable à l’exploration des corps célestes. Leur juridicité même est régulièrement questionnée. Par ailleurs, les États signataires des accords Artemis n’en ont pas négocié le contenu ; ils se sont contentés d’y adhérer, avec des contreparties variables. Néanmoins, grâce à ces signatures, l’initiative unilatérale de la première puissance spatiale mondiale prend des airs d’initiative internationale – et rend mainstream l’interprétation du droit applicable dans sa version états-unienne, ceci sachant que l’on compte aujourd’hui plus d’une cinquantaine d’États signataires des accords Artemis.
Ces deux ruptures juridiques d’origine états-unienne placent la nouvelle vague d’explorations lunaires sous l’égide d’un droit de l’espace en voie de renouvellement, tant dans son contenu que dans la fabrique de la norme spatiale. Les premières missions à toucher le sol lunaire auront donc un rôle majeur dans la définition du droit futur de l’exploration des corps célestes.
À côté des dynamiques nouvelles qui redessinent le paysage lunaire en ce début de siècle, d’autres facteurs rappellent combien celui-ci est aussi rattrapé par les contraintes au cœur des années 2020. Il est alors impossible de ne pas évoquer la question du coût environnemental et budgétaire de ces programmes.
Les grands programmes d’exploration ont toujours coûté cher : des 250 milliards de dollars du programme Apollo, on passe à une estimation basse du coût global du programme Artemis jusqu’à l’année 2025 de l’ordre de 93 milliards de dollars, soit plus de 78,6 milliards d’euros (un seul lancement Artemis est estimé à 4 milliards de dollars, plus de 3,3 milliards d’euros). Des montants tentaculaires comparés au budget spatial annuel français (2,5 milliards d’euros par an depuis plusieurs années) ou européen (l’ESA a voté un budget record d’environ 22 milliards d’euros pour trois ans).
D’ailleurs, la sécurisation budgétaire (et in fine politique) des programmes lunaires états-uniens a été un enjeu récurrent au cours de l’année 2025, les États-Unis finançant, puis dé-finançant, puis refinançant tout ou partie du programme lunaire, quitte à sabrer quelques-uns des domaines de coopération sur le sujet, notamment avec l’ESA.
Il faut aussi questionner la dimension écologique des programmes lunaires, quoique ce ne soit pas tellement une préoccupation états-unienne. Le lancement d’Artemis 2 intervient dans un monde marqué par l’intensification des effets du changement climatique. Cette concomitance interroge quant à l’adéquation de ces programmes à leur contexte environnemental et laisse aussi ouvert un autre chantier de réflexion, important à conduire, et notamment en Europe : qu’est-ce qu’une ambition lunaire correctement dimensionnée à notre époque, à la fois budgétairement et environnementalement ?
Car au-delà de la question classique et attendue de la priorisation des investissements, la question qui se pose est celle de la définition d’autres modèles d’exploration spatiale possibles – en ce sens, Artemis et l’ILRS ne fixent pas nécessairement le la de ce que devrait être une ambition lunaire en 2026.
Alban Guyomarc'h est membre du Groupe de travail "Objectif Lune" de l'Association Nationale de la Recherche et de la Technologie (ANRT), groupe de travail dont il coordonne les travaux. Dans le cadre de ses recherches, il est également membre du PEPR Origines de la vie, dans le cadre duquel il conduit ses recherches doctorales au Collège de France.
04.03.2026 à 09:14
Jacques Arnould, Expert éthique, Centre national d’études spatiales (CNES)

La galaxie d’Andromède, la planète Mars, les missions Apollo hier et Artémis aujourd’hui : avez-vous remarqué combien d’astres et de missions spatiales portent des noms de dieux romains ou grecs ? Certaines conceptions de la conquête spatiale reflètent des doctrines colonialistes. Comment les dépasser ?
Souvenez-vous : le 6 février 2018, Elon Musk a envoyé vers Mars sa propre Tesla, avec, à bord, un mannequin habillé d’une combinaison spatiale. Le message était clair : la colonisation de la planète rouge par le milliardaire américain avait commencé ! Certes, huit ans plus tard, les fusées de la société SpaceX n’ont pas encore atteint la surface de Mars et les projets de colonie restent à l’état de magnifiques images de synthèse ; pourtant, l’enthousiasme ne fléchit pas chez les aficionados de l’espace, et l’inquiétude chez bien d’autres : jamais nous n’avons été aussi près d’une colonisation de l’espace.
Pour la réaliser, bien des défis technologiques et humains restent à relever ; mais l’affaire est suffisamment sérieuse pour y appliquer une analyse et une critique sérieuses. Nous savons trop bien de quelle manière les humains ont colonisé notre Terre. Voulons-nous agir de même dans l’espace ?
Elon Musk n’est pas le premier à vouloir conquérir une planète. Ce projet a toujours été associé aux rêves et aux réalisations de voyage dans le ciel. N’en prenons que deux exemples, non dénués d’humour.
Le premier est une satire, issue d’un journal anglais, The Examiner. Le 3 janvier 1808, il prête à Napoléon des propos guerriers de conquête et de colonisation de l’espace :
« Alors je pourrai constituer une armée de ballons, dont Garnerin sera le général, et prendre possession de la Comète. Cela me permettra de conquérir le système solaire, ensuite j’irai avec mes armées dans les autres systèmes, enfin – je pense –, je rencontrerai le Diable. »
Le second exemple est sorti des archives des imageries d’Épinal : dans la forme d’un cerf-volant, un zouave grimpe hardiment une échelle appuyée sur la Lune. « Nous irons conquérir la Lune », claironne la légende ; au même moment où les frères d’armes du zouave sont engagés dans la colonisation de l’Afrique du Nord.
Jusqu’à preuve du contraire, l’espace extra-atmosphérique présente une propriété assez rare sur notre planète : il est inhabité (je rappelle ici que les scientifiques n’ont pour l’instant aucune preuve de l’existence de la moindre forme de vie, de la moindre biosphère extraterrestre). En terme juridique, l’espace pourrait donc être considéré comme une terra nullius, selon l’expression latine qui désignait des terres « sans habitants » – à l’époque, il s’agissait plus précisément de dire « sans populations chrétiennes » – et, par suite, n’appartenant à personne.
Dans le passé, cette doctrine, validée par le pouvoir religieux, a justifié la prise de possession de ces territoires par les souverains (chrétiens) d’Europe ; et c’est une perspective que les inspirateurs du droit de l’espace et les législateurs spatiaux ont tenté d’écarter en proposant de déclarer les corps célestes patrimoine commun de l’humanité.
Ainsi, le traité de l’Espace, adopté par l’ONU en décembre 1966, a déclaré l’espace bien commun et a été signé par les grandes puissances de l’époque, États-Unis et Union soviétique en tête : l’espace appartient à tous ; son exploitation est possible… comme l’illustre la lucrative activité des satellites de communication.
Toutefois, lorsque l’accord sur la Lune, proposée par l’ONU treize ans plus tard, propose de déclarer l’astre des nuits patrimoine commun de l’humanité et donc d’y interdire toute forme d’exploitation, les puissances spatiales refusent de le signer. Il n’est aujourd’hui ratifié que par 18 États dépourvus de grandes ambitions spatiales.
Devons-nous conclure que les puissances spatiales, établies ou en devenir, caressent des rêves de conquête et de colonisation ? La décision de l’administration Obama de l’hiver 2015 de soutenir et de préserver les initiatives de ses entreprises nationales en matière d’exploitation des ressources spatiales, suivie par des initiatives analogues de la part des gouvernements du Luxembourg, des Émirats arabes unis et du Japon, pourrait faire penser à la politique des comptoirs lancée par les puissances européennes à partir du XVᵉ siècle. Les défis technologiques à relever sont aussi importants que les débats juridiques et politiques à résoudre.
Quant à l’immense vide spatial et, notamment, le domaine des orbites autour de la Terre : ce territoire était incontestablement inhabité jusqu’à l’arrivée du premier Spoutnik, puis du premier cosmonaute. Toutefois, il possède à son tour une caractéristique singulière, celle d’être impérativement à usage commun, du simple fait de la mécanique céleste : tout corps y est en mouvement et n’occupe un point de l’espace que très brièvement. Le seul mode possible d’appropriation relève de la saturation, autrement dit d’une occupation par le nombre : fin 2025, entre 50 et 65 % des satellites en orbite autour de la Terre appartenaient à un seul opérateur, SpaceX.
S’il est inapproprié de parler d’une « colonisation des orbites circumterrestres », il est à craindre que les règles et les lois qui gouvernent l’usage de cet espace soient celles du plus fort, du plus nombreux, du premier arrivé.
Que pouvons-nous conclure ici ? Qu’à formellement parler la colonisation de l’espace lui-même n’a pas encore commencé et que, par voie de conséquence, l’enjeu actuel et à venir constitue moins à décoloniser l’espace qu’à en empêcher la colonisation future.
En revanche, force est de constater que l’esprit des 70 premières années de l’entreprise spatiale a bien été imprégné par certains traits communs aux politiques, aux récits, aux symboles de la colonisation. À l’époque des missions Apollo, n’était-il pas question de « conquête de l’espace », plutôt que de son exploration ? Si planter un drapeau sur le sol lunaire n’a jamais été interprété comme une volonté d’appropriation, le geste a tout de même été effectué pour affirmer la supériorité technique des États-Unis et, donc, une forme de suprématie politique.
Aussi symbolique quoique moins violente est l’habitude de baptiser les astres et leurs topographies en s’inspirant des mythologies et de l’histoire de l’Occident. Entamer la décolonisation de l’espace peut alors consister à recourir désormais à d’autres mythologies pour baptiser les corps célestes que découvrent les astronomes. Baptiser Oumuamua, en hawaïen « l’éclaireur », l’objet interstellaire repéré le 19 octobre 2017 en est une illustration.
Que dire dès lors des revendications émises par plusieurs peuples amérindiens lors de missions lunaires, qu’il s’agisse de celles des années 1960 ou celle plus récente menée début 2024 par la société états-unienne Astrobotic ? Pour ces populations, la Lune appartient au domaine du sacré : y poser des vaisseaux robotiques, habités ou transportant les cendres de Terriens, n’est-ce pas accomplir un sacrilège, autrement dit une forme extrême de colonisation ?
Les raisons ne manquent donc pas de porter dans les affaires spatiales le souci de décolonisation qui marque aujourd’hui de nombreux discours à propos de l’espace, quitte à y inclure l’apport des ingénieurs allemands (éventuellement nazis) dans le développement spatial de pays, comme les États-Unis et la France, ou encore la politique menée par la France sur le territoire guyanais afin d’y implanter la base spatiale de Kourou, qui succéderait en 1968 à celle d’Hammaguir après l’indépendance de l’Algérie.
Ce souci est indispensable ; mais il n’est pas suffisant.
Le processus de décolonisation doit conduire à une perspective postcoloniale, autrement dit à l’instauration de politiques, de gouvernances des activités humaines dans l’espace qui soient autant que possible débarrassées des principaux caractères néfastes de la colonisation : la soumission violente et l’exploitation brutale d’une partie de l’humanité par une autre, l’exploitation jusqu’au saccage de ressources communes, la destruction de cultures et de traditions ancestrales, etc.
Dans cette perspective, les discours, les revendications et les programmes spatiaux de certains acteurs du NewSpace (les stations spatiales de Jeff Bezos, les colonies martiennes d’Elon Musk) peuvent susciter bien des soucis, bien des craintes, tant ils mettent en avant les seuls intérêts de ces entrepreneurs, les seuls plaisirs ou la seule sécurité de quelques privilégiés.
De plus, l’argument de l’espèce humaine interplanétaire est loin d’être moralement convaincant. Où est-il « écrit » que nous devions nous répandre au-delà des frontières terrestres, au détriment de possibles biosphères extraterrestres ? À quel « échantillon » humain pourrions-nous confier le soin des expansions extraterrestres ? Ou, pour le dire autrement, quelle partie de l’humanité serait « laissée » sur une Terre dont nous savons l’avenir menacé ?
N’oublions pas pour autant les récits d’hier et d’aujourd’hui qui décrivent des communautés humaines installées durablement dans l’espace. Non pour alimenter les rêves de paradis retrouvé, comme ceux imaginés par le gourou du NewSpace que fut Gerard O’Neill, mais pour mener le travail critique imaginé par Thomas More dans son célèbre ouvrage, l’Utopie.
Publié dans sa version finale en 1518, ce petit ouvrage, « non moins salutaire qu’agréable » selon les mots mêmes de son auteur, invitait ses premiers lecteurs à partir pour une cité totalement imaginaire, un non-lieu aussi bien qu’un non-temps, qui servait de miroir pour porter un regard critique sur leur propre société. Le philosophe britannique ne cherchait ni à rompre brutalement les liens avec un passé ni à s’échapper dans un futur idéalisé, mais avant tout à remettre l’être humain au centre du souci commun, à lui construire un futur à la mesure de sa condition, celle éprouvée dans le passé et dans le présent, celle pensée et espérée pour le futur.
Jacques Arnould ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.03.2026 à 16:57
Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université
Christine Noiville, Juriste, directeur de recherche CNRS, Institut des Sciences Juridique et Philosophique de la Sorbonne, Université Paris 1 Panthéon-Sorbonne

Certaines interventions visant à éviter les effets du réchauffement climatique génèrent des risques très importants, tout particulièrement la « modification du rayonnement solaire ». La recherche publique a un rôle capital à jouer pour éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables.
Face à l’intensification des effets du changement climatique, l’idée de limiter ce phénomène en manipulant volontairement le climat a surgi. Différentes interventions d’« ingénierie climatique » sont évoquées. Parmi elles notamment la géo-ingénierie solaire pour modifier l’arrivée des rayons du soleil à la surface de la Terre ; la géo-ingénierie polaire pour protéger la banquise de la fonte, par exemple en y cultivant de la neige ; la fertilisation de l’océan, en y injectant du fer pour activer la pompe biologique ; ou bien le blanchiment des nuages pour qu’ils réfléchissent les rayons solaires vers l’espace.
Ces propositions ont des efficacités et des risques très différents ; mais la géo-ingénierie par la modification du rayonnement solaire présente des risques collectifs à grande échelle (réchauffement brutal, modifications locales du climat…) et soulève des questions éthiques.
Quelle est la responsabilité des scientifiques lorsque de tels risques sont susceptibles d’être attachés à leurs recherches ? Dans un domaine désormais investi par divers États et acteurs privés désireux de multiplier les expérimentations dans un avenir proche, voire les déploiements à plus lointaine échéance, nous pensons que la recherche publique a un rôle capital à jouer : objectiver les questions en jeu, documenter des impacts potentiels, opérer un suivi de déploiements éventuels, éclairer correctement le public et les décideurs, éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables… comme cela a déjà été le cas dans l’histoire.
Les techniques de géo-ingénierie solaire consistent à vouloir limiter les effets de l’énergie du soleil qui arrive sur Terre, et sont présentées comme un outil possible pour atténuer les effets du réchauffement.
Parmi elles, la modification du rayonnement solaire (MRS) est aujourd’hui l’une des plus débattues et divise les communautés scientifiques. Elle consiste à injecter des particules, par exemple des aérosols soufrés, dans la stratosphère pour renvoyer vers l’espace une partie du rayonnement du soleil. Soutenue par un nombre croissant d’acteurs publics et privés (scientifiques, philanthropes, entreprises, États), elle comporte toutefois de nombreux risques.
Il est en effet établi qu’elle est susceptible d’entraîner une déstabilisation du climat local de régions entières, des écosystèmes et du cycle de l’eau (par exemple, en modifiant la mousson asiatique), ce qui pose des questions de justice et donc de gouvernance internationale.
En outre, l’arrêt des injections pourrait produire un effet rebond (ou « choc terminal »), c’est-à-dire un réchauffement brutal de la Terre dont les impacts pourraient être bien plus délétères que le réchauffement graduel en cours.
Il faut aussi envisager les potentielles utilisations stratégiques, voire malveillantes de la MRS – par exemple, un pays qui tenterait de réduire les précipitations sur le territoire d’un adversaire –, plus que jamais envisageables dans un monde fragmenté au plan géopolitique.
Ces oppositions sont loin d’être purement théoriques. Aux États-Unis, des scientifiques, soutenus par leurs institutions, souvent des universités privées financées par des fonds publics autant que privés, se sont ainsi lancés dans de telles recherches, sans cadre légal, éthique ni soutien du public. C’est par exemple le cas du Harvard Solar Geoengineering Research Program qui explore différentes facettes des enjeux liés (connaissances scientifiques, enjeux sociaux et politiques), sans, pour l’instant, tenter d’expérience à grande échelle dans l’atmosphère.
Au Royaume-Uni, l’agence ARIA (qui, sur le modèle de la Defense Advanced Research Projects Agency, ou DARPA, aux États-Unis, a pour mission de soutenir des recherches « disruptives ») a décidé de promouvoir ces sujets et lancé des appels d’offres sur les « points de bascule » et la géo-ingénierie en 2024. Une partie de la communauté scientifique s’est vue acculée à réfléchir dans l’urgence aux enjeux éthiques.
En France, la communauté scientifique débat de la question de savoir s’il faut ou non donner suite ou non à la proposition de l’industriel F. Paulsen et d’autres mécènes de financer des recherches en géo-ingénierie polaire, notamment pour étendre ou épaissir la banquise.
Ces essais soulèvent d’épineuses questions pour la recherche publique. Lors des auditions que nous avons menées pour rédiger l’avis du comité d’éthique du CNRS (Comets) sur cette question, certains scientifiques ont fait valoir le principe de liberté de la recherche, mais aussi la « neutralité » de cette dernière : les chercheurs produisent des connaissances nouvelles qui seraient en elles-mêmes « neutres » ; aux politiques de choisir de mobiliser ces connaissances pour mettre en œuvre, ou pas, la modification du rayonnement solaire.
D’autres chercheurs affirment à l’inverse qu’il n’est pas responsable d’exposer les populations et l’environnement aux risques graves liés à de telles recherches. Ils font observer que la recherche en elle-même n’est pas neutre, car ses enjeux concernent la société, même si elle produit des connaissances fiables, c’est-à-dire robustes et utiles. Ils pointent notamment les impacts d’expériences dangereuses, mais aussi le risque que la recherche sur la modification du rayonnement solaire ne freine les efforts de réduction des émissions de gaz à effet de serre en nourrissant l’illusion d’un remède rapide, permettant à certains acteurs « d’acheter du temps », sans régler pour autant l’origine du problème.
Pour d’autres chercheurs enfin, il relève au contraire de la responsabilité de la recherche publique de répondre aux enjeux majeurs de notre époque, dont la lutte contre le changement climatique, y compris en empruntant des voies ou des méthodes à risques.
Au-delà de ces débats, dans un domaine désormais investi par divers acteurs désireux de multiplier les expérimentations voire les déploiements, même « contrôlés et de petite échelle », la recherche publique à la responsabilité d’objectiver les questions en jeu de façon interdisciplinaire, d’éclairer correctement le public et les décideurs, afin d’éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables. Ceci a déjà été le cas dans l’histoire, par exemple le financement, par l’industrie du tabac, de recherches sur d’autres sources du cancer du poumon.
Les scientifiques doivent de plus être attentifs à l’influence des financements privés de la géo-ingénierie solaire, dont les motivations peuvent correspondre moins à l’intérêt général qu’à des intérêts particuliers. Ensuite, veiller aux termes et concepts qu’ils utilisent qui peuvent être instrumentalisés dans des récits motivant le besoin « urgent » de solutions technologiques au changement climatique. À ce titre, les récits autour de potentiels « points de bascule globaux » du climat, qui engendreraient des changements brutaux et rapides, mais qui font l’objet de débats scientifiques non tranchés, sont souvent mobilisés. Que penser, par exemple, du fait que le Bezos Earth Fund, fondation d’une entreprise de la tech américaine, finance des rapports de scientifiques sur les « points de bascule globaux » ?
Ainsi, le comité d’éthique du CNRS dont les deux auteurs de cet article font partie recommande de mobiliser la recherche publique sur ce sujet, avec des dispositifs solides de gouvernance et d’accompagnement : veille et suivi, dialogue interdisciplinaire, structuration d’espaces d’échanges avec la société civile, clauses de « revoyure » et « portes de sortie » afin d’évaluer, voire de stopper, des projets de recherche publique qui deviendraient dangereux.
Éric Guilyardi est Président de l'Office for Climate Education, organisation placée sous l'égide de l'UNESCO. Il est membre du Comité d'éthique du CNRS (COMETS) et du conseil scientifique de l'Éducation nationale. Il a reçu des financements de l'Agence Nationale de la Recherche et de l'Union Européenne.
Christine Noiville est DR au CNRS. Elle préside le COMETS, comité d'éthique du CNRS. Elle a reçu des financements de l'ANR et France 2030 (PEPR Santé numérique).
02.03.2026 à 17:01
Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers
À quoi ressemblait le visage de nos ancêtres, il y a plus de 3 millions d’années ? C’est à cette question que notre équipe internationale a répondu en assemblant virtuellement les fragments de la face de Little Foot, le spécimen d’Australopithecus le plus complet jamais mis au jour. Cette reconstruction nous éclaire sur la façon dont notre face a évolué en interaction directe avec notre environnement. Le résultat de nos travaux vient d’être publié et est disponible en accès libre dans la revue Comptes Rendus Palevol, et le nouveau visage de Little Foot peut être consulté en 3D sur la plateforme en ligne MorphoSource.
La quête des origines de l’humanité n’a jamais été aussi féconde, avec la découverte de fossiles reculant la date d’apparition des premiers humains à 2,8 millions d’années, et le développement de méthodes de pointe dans l’analyse de ces restes qui a permis, par exemple, de retrouver de l’information génétique vieille de plus de 2 millions d’années. Pourtant, si notre connaissance des espèces humaines éteintes s’enrichit au fil des découvertes, celle de nos ancêtres, avant les premiers humains (Homo), reste encore une énigme. Or, c’est précisément durant cette période charnière de notre histoire que se sont mis en place les caractères qui définiront notre humanité et qui assureront à notre genre un succès évolutif sans équivalent dans le monde vivant.
Bien que la question de l’identité de notre ancêtre direct soit loin d’être résolue, un groupe fossile joue un rôle central dans cette recherche, Australopithecus. Ce genre, auquel appartient la fameuse Lucy découverte il y a cinquante ans en Éthiopie, a occupé une grande partie de l’Afrique et a survécu plus de 2 millions d’années. Australopithecus est connu par de nombreux restes fossiles, mais souvent très fragmentaires, isolés et parfois déformés. En particulier, malgré ce registre unique, il n’existe à ce jour qu’une poignée de crânes qui conservent la presque totalité de la face. Or, cette partie de notre anatomie a fortement contribué à faire de nous les humains que nous sommes aujourd’hui.
À travers les systèmes digestifs, visuels, respiratoires, olfactifs et de communication non verbale, la face est au centre des interactions entre les individus et leur environnement physique et social. Nous savons aujourd’hui que des changements importants se sont opérés dans la région de la face, qui devient de plus en plus plate et de moins en moins robuste. En revanche, nous ignorons les facteurs qui en sont à l’origine. Est-ce la modification de notre régime alimentaire qui a entraîné ces changements ? Ou bien celle de nos comportements sociaux ? Seule la découverte de crânes plus complets pourrait éclaircir ce débat.
L’Afrique du Sud a été et est encore aujourd’hui une région privilégiée dans la quête des origines humaines. Il y a cent ans, l’emblématique « enfant de Taung » est mis au jour et publié dans Nature comme le représentant d’une nouvelle branche africaine de l’humanité, Australopithecus. Alors que jusqu’à cette date l’attention de la communauté scientifique était braquée sur l’Eurasie, cette découverte va ouvrir plus d’une décennie de découvertes majeures en Afrique. En particulier, l’Afrique du Sud va voir se multiplier les sites paléontologiques dans une région classée par l’Unesco et renommée « berceau de l’humanité ». Parmi ces sites, Sterkfontein va se montrer extrêmement riche en fossiles, en partie attribués à Australopithecus, dont la préservation est exceptionnelle. Mais c’est en 1994 et 1997 que Sterkfontein va livrer sa plus belle pièce, le squelette de Little Foot préservé à plus de 90 %. À ce jour, il s’agit du squelette le plus complet jamais découvert pour Australopithecus, qui rivalise de très loin avec Lucy dont seulement 40 % de l’anatomie est conservée.
Notre équipe s’est attelée à l’étude de ce squelette depuis sa fouille complète qui s’est achevée en 2017. Le crâne a en particulier retenu notre attention, puisqu’il est, lui, complet. Cependant, les 3,7 millions d’années passées sous terre ont altéré sa face, dont certaines régions se sont fragmentées puis déplacées. Ce processus est notamment visible au niveau du front et des orbites et rend les analyses quantitatives impossibles. Devant la nature exceptionnelle et unique de ce fossile, nous avons décidé de mettre à notre service les avancées technologiques dans le domaine de l’imagerie pour redonner un nouveau visage à Little Foot.
L’accès à une copie digitale de Little Foot était nécessaire pour pouvoir isoler virtuellement les fragments et les repositionner sans endommager le crâne original.
Cependant, les technologies classiques de numérisation par rayons X connaissent des limites. À travers le processus de fossilisation, les cavités laissées vides dans le crâne de Little Foot par la disparition des tissus mous se sont remplies de sédiment. En conséquence, les rayons X peinent à pénétrer cette matrice sédimentaire extrêmement dense, ce qui impacte la qualité du contraste entre les tissus dans les images qui en résultent.
Après plusieurs tentatives infructueuses, nous avons envisagé une alternative, plus puissante, qui est celle de la numérisation par rayonnement synchrotron. Le synchrotron est un accélérateur à haute énergie de particules, utilisé en imagerie pour obtenir des images à très haute résolution (de l’ordre du micron, voire du submicron).
Dans cette optique, nous avons transporté le crâne de Little Foot en Grande-Bretagne pour le scanner. Le premier voyage de Little Foot hors d’Afrique s’est ainsi déroulé à l’été 2019, sous escorte et avec une chambre forte pour l’accueillir lors de son séjour outre-Manche.
Plusieurs jours ont été nécessaires pour numériser l’ensemble du crâne à une résolution de 21 microns. Ces images, exceptionnelles, ont révélé des détails intimes de l’anatomie de Little Foot, et fournissent le matériel de travail nécessaire pour la reconstruction de sa face.
La haute qualité de ces données a néanmoins un coût en termes de ressources computationnelles ; plus de 9 000 images ont été générées et représentent des téraoctets d’information à traiter. Pour isoler virtuellement les fragments, ces images ont donc été traitées à l’aide du supercalculateur de l’Université de Cambridge (Angleterre). Une fois générés en 3D, ces fragments ont été replacés selon leur position anatomique, et les parties manquantes recréées afin de redonner, enfin, un visage complet à Little Foot.
La taille et la forme des orbites de Little Foot, jusque-là masquées par la présence de fragments déplacés, sont parmi les premiers éléments marquants de cette reconstruction. La région orbitaire chez les primates est largement influencée par des adaptations fonctionnelles (vision) et comportementales (écologie). Les orbites de Little Foot, de grande taille proportionnellement au reste de la face, suggèrent une forte dépendance aux informations sensorielles, probablement pour la recherche de nourriture. Cette hypothèse est renforcée par une étude antérieure montrant que son cortex visuel était plus développé que celui des humains actuels.
Le deuxième résultat qui découle de cette étude a des répercussions sur notre compréhension des affinités entre les groupes d’Australopithecus qui vivaient en Afrique entre 4 millions et 2 millions d’années. L’échantillon comparatif, bien que limité, comprenait des spécimens d’Afrique de l’Est et d’Afrique du Sud. Or, Little Foot, bien que provenant d’un site sud-africain, montre des ressemblances fortes avec les spécimens d’Afrique de l’Est. Ces ressemblances pourraient indiquer que Little Foot partageait des ancêtres proches avec la population d’Afrique de l’Est, alors que ses probables descendants en Afrique du Sud développeront plus tard une anatomie distincte, fruit d’une évolution locale.
Bien que la face renferme de précieuses informations sur les adaptations de nos ancêtres à leur environnement, le reste du crâne de Little Foot apportera d’autres éléments clés pour comprendre notre histoire évolutive. Entre autres, la boîte crânienne, affectée par une déformation dite « plastique », devra faire l’objet de travaux similaires pour, cette fois, reconstituer et explorer les conditions neurologiques de ce groupe fossile.
Le projet « À la Recherche des Origines Humaines en Afrique Australe – LHOSA» est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Ces travaux de recherche sont soutenus par l’Agence Nationale de la Recherche, le Centre National de la Recherche Scientifique, la Claude Leon Foundation, le DST-NRF Center of Excellence in Palaeosciences, l’Institut Français d’Afrique du Sud, le Diamond Light Source et l’organisme ISIS du Science and Technology Facilities Council (STFC).
01.03.2026 à 10:41
Georgina Sauzier, Senior Lecturer in Forensic Chemistry, Curtin University
Michael Vic Adamos, PhD Candidate, Chemistry, Curtin University

Les plans d’armes imprimées en 3D circulent librement en ligne et les saisies se multiplient. Mais ces armes sont-elles vraiment intraçables ? En Australie, une nouvelle étude démontre que leur signature chimique pourrait aider les enquêteurs à remonter les filières.
Les armes imprimées en 3D représentent une menace croissante pour la sécurité publique. Les plans permettant de fabriquer ces armes à feu sont disponibles en ligne, ce qui les rend facilement accessibles. Avec une imprimante 3D relativement bon marché et une simple recherche sur Internet, n’importe qui pourrait imprimer sa propre arme non déclarée.
Ces armes ont été qualifiées d’« intraçables ». De nouvelles recherches viennent désormais mettre cette affirmation à l’épreuve.
Notre nouvelle étude, publiée dans la revue Forensic Chemistry, montre que certains filaments – les matériaux utilisés dans les imprimantes 3D – présentent des profils chimiques distincts susceptibles d’aider à relier des armes imprimées en 3D saisies.
En octobre dernier, une opération de l’Australian Border Force a permis de découvrir 281 armes à feu imprimées en 3D ou des composants associés. Ces pièces imprimées en 3D peuvent être combinées avec des éléments courants achetés en magasin de bricolage pour fabriquer des armes « hybrides », ce qui en accroît la solidité et la durabilité. Les armes entièrement imprimées en 3D comme les modèles hybrides peuvent être tout aussi létales que celles fabriquées en usine.
En Australie, des événements récents ont conduit à des appels demandant aux détaillants d’aider à endiguer la prolifération des armes imprimées en 3D. Parmi les propositions figurent l’installation de technologies de blocage sur les imprimantes 3D ou le signalement de l’achat d’articles susceptibles d’être utilisés pour fabriquer des armes hybrides.
Mais que peut-on faire face aux armes déjà en circulation dans la communauté ?
Les armes imprimées en 3D ont hérité du surnom d’« armes fantômes », car elles sont difficiles à retracer par les méthodes classiques d’analyse balistique. Alors que les forces de l’ordre peinent à identifier l’origine des armes fantômes saisies, il revient aux chercheurs de trouver une solution alternative. L’analyse chimique des filaments utilisés pour imprimer ces armes pourrait être la clé pour mettre fin à leur réputation d’armes « intraçables ».
Les filaments d’impression 3D sont composés de différents polymères, c’est-à-dire de plastiques. Le principal polymère utilisé pour l’impression 3D à domicile est l’acide polylactique, ou PLA, un bioplastique notamment employé pour fabriquer des sacs-poubelle compostables. D’autres filaments courants sont fabriqués à partir d’ABS – le matériau principal des briques LEGO, apprécié pour sa robustesse – et de PETG, un polymère souple que l’on retrouve dans les gourdes de sport.
Certains filaments spécialisés sont obtenus en combinant plusieurs polymères. Beaucoup contiennent également des additifs – des ingrédients supplémentaires destinés à améliorer la résistance, la flexibilité ou l’apparence.
Les filaments d’impression 3D étant généralement brevetés afin de protéger leurs formulations spécifiques, leurs additifs et autres composants mineurs ne sont en général pas mentionnés sur l’emballage. Or, ce sont précisément ces ingrédients qui pourraient détenir la clé pour retracer les « armes fantômes ».
Le mélange d’ingrédients utilisé dans les filaments d’impression 3D confère à chaque type de filament une signature chimique particulière. Nous pouvons identifier ces signatures grâce à la spectroscopie infrarouge, une méthode qui mesure la manière dont le filament absorbe la lumière infrarouge. Ce motif d’absorption – un profil infrarouge – varie en fonction des molécules présentes dans le filament.
Dans le cadre de nos travaux, menés en collaboration avec ChemCentre – un laboratoire médico-légal public d’Australie-Occidentale – nous avons analysé plus de 60 filaments provenant du marché de détail australien. Nous avons constaté que nombre de ces filaments pouvaient être distingués grâce à leur profil infrarouge, bien qu’ils paraissent identiques à l’œil nu.
Les filaments en PLA, en ABS et en PETG se différencient aisément en raison des différences marquées dans la composition chimique de chacun de ces polymères. Nous avons également réussi à distinguer certains filaments fabriqués à partir du même polymère, grâce à la présence d’additifs mineurs qui modifiaient leur profil infrarouge.
Dans un filament, par exemple, nous avons détecté la présence d’un compatibilisant – un additif qui permet à deux polymères de se mélanger. Cet ingrédient n’a pas été retrouvé dans d’autres filaments reposant sur le même polymère de base, ce qui suggère qu’il pourrait constituer un élément distinctif de la formulation de la marque. Cela indique également que ce filament contenait probablement deux polymères différents, alors qu’un seul était mentionné sur l’emballage.
Ces résultats montrent que l’analyse chimique des filaments peut s’avérer utile, bien qu’il s’agisse de produits de consommation largement disponibles.
La capacité à distinguer ou identifier différents filaments d’impression 3D pourrait permettre aux experts médico-légaux d’établir des liens entre une arme saisie et un filament saisi, ou entre des armes provenant d’affaires distinctes.
Ces rapprochements peuvent aider les forces de l’ordre à remonter jusqu’aux fournisseurs de ces armes, perturbant ainsi les chaînes d’approvisionnement et la production future.
Si nos travaux montrent que certains filaments d’impression 3D peuvent être différenciés, ce n’est pas le cas de tous. Nous menons désormais des recherches complémentaires en recourant à d’autres techniques analytiques, susceptibles d’apporter des informations supplémentaires, notamment sur les éléments chimiques présents dans les filaments.
La combinaison de différentes techniques nous permettra d’établir un profil chimique complet de chaque filament. Nous espérons que ces informations nous aideront à établir des liens entre une arme imprimée en 3D saisie, le filament à partir duquel elle a été fabriquée et l’imprimante 3D utilisée pour l’imprimer.
En retraçant l’empreinte chimique des armes imprimées en 3D, les criminels ne pourront plus se croire protégés par leur voile d’« intraçabilité ».
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.02.2026 à 10:43
Corinne Salcedo, Manager des systèmes TRISHNA, Centre national d’études spatiales (CNES)

En 2027, un satellite franco-indien va être mis en orbite pour détecter la température de la surface de la Terre, en évaluer le contenu en eau et aider différents secteurs d’activités : agriculture, agroforesterie, hydrologie, micrométéorologie urbaine, biodiversité.
« Trishna » veut dire « soif » en sanscrit. Pour un satellite qui contribuera de manière significative à la détection du stress hydrique (déficience en eau) des écosystèmes et à l’optimisation de l’utilisation de l’eau en agriculture, dans un contexte de changement climatique mondial, cela nous semble bien adéquat. TRISHNA, acronyme anglophone de Thermal InfraRed Imaging Satellite for High-resolution Natural resource Assesment, signifie aussi « satellite d’imagerie infrarouge thermique pour l’évaluation haute-résolution de ressources naturelles ».
Une fois en orbite, TRISHNA mesurera tous les trois jours, sur tout le globe terrestre et à 60 mètres de résolution, la température de surfaces des continents et de l’océan côtier, c’est-à-dire jusqu’à 100 kilomètres du littoral. Car, aussi étrange que cela puisse paraître, cette coopération entre le Centre national d’études spatiales français (Cnes) et son homologue indien l’Indian Space Research Organisation (ISRO) va mesurer la température terrestre pour étudier l’eau.
En effet, il est maintenant prouvé que sous l’effet d’une pression anthropique croissante et du changement climatique, notre environnement se réchauffe et se transforme de plus en plus vite, avec notamment un impact sur le cycle de l’eau, indissociable du cycle de l’énergie.
En effet, depuis l’échelle globale jusqu’à des échelles beaucoup plus locales, l’eau est à la fois un élément indispensable à la vie et le principal vecteur des échanges de chaleur dans la machine météorologique et climatique. Aujourd’hui, la modification conjuguée des températures et des régimes de précipitations impacte les réserves accessibles d’eau douce, dont 70 % sont voués aux usages agricoles (irrigation), 25 % à l’industrie et le reste aux usages domestiques.
Il est donc logique de rechercher une gestion optimisée de cette ressource, à la fois en termes de quantité et de qualité. Cet objectif permet de répondre à plusieurs objectifs gouvernementaux et internationaux portés par des organismes tels que le GEOGLAM (organisme international qui surveille les cultures agricoles au niveau planétaire et génère des prévisions de récolte via un système satellite mondial), la FAO (organisation pour l’alimentation et l’agriculture des Nations unies) et les Nations unies elles-mêmes.
Pour aller dans ce sens, la mission TRISHNA a été conçue de manière spécifique pour étudier prioritairement le stress hydrique des écosystèmes naturels et agricoles ainsi que l’hydrologie côtière et continentale.
À lire aussi : L’espace au service du climat : comment exploiter l’extraordinaire masse de données fournies par les satellites ?
La température de surface et sa dynamique sont des indicateurs précieux de la « soif » des végétaux car, en s’évaporant, l’eau refroidit la surface dont elle provient et réciproquement, les surfaces se réchauffent lorsqu’il n’y a plus d’eau à évaporer ou à transpirer (notons que ce principe vaut autant pour les animaux que pour les végétaux).
À lire aussi : Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ?
La température de surface peut donc être utilisée comme indicateur des quantités d’eau utilisées par une plante pour maintenir sa chaleur à un niveau permettant son bon fonctionnement.
Or, une loi physique, dite loi de Wien, connue depuis 1893, met en relation la température d’un objet avec l’énergie électromagnétique qu’il émet dans différentes longueurs d’onde. Selon cette loi, la planète Terre émet le plus d’énergie dans le domaine infrarouge dit « thermique » aux alentours de 10 micromètres.
Les détecteurs de TRISHNA ont donc été conçus en visant ce domaine spectral afin de mesurer l’énergie émise par les surfaces terrestres, quelles qu’elles soient (végétation, environnement côtier, lacs, rivières, neige, glaciers, surfaces artificialisées, milieux urbains) pour en déduire leur température.
Pour les besoins de la recherche et des applications qui en découlent, la fréquence élevée de revisite (tous les trois jours) et ses résolutions spatiale (60 mètres) et spectrale permettront d’aborder des enjeux scientifiques, économiques et sociétaux majeurs dans différents secteurs : agriculture, agroforesterie, hydrologie, micrométéorologie urbaine, biodiversité.
La coopération spatiale entre la France et l’Inde est un élément important de l’axe indopacifique de notre politique étrangère.
À lire aussi : Irrigation : l’Inde en quête d’une « révolution bleue »
Son histoire riche est marquée par des collaborations scientifiques et techniques débutées dès les années 1960, époque à laquelle les deux nations travaillaient notamment au développement de fusées-sondes. De part et d’autre, l’intention stratégique était alors de développer une autonomie nationale d’accès à l’espace.
Cette collaboration a jeté les bases de deux projets spatiaux emblématiques qui ont suivi plus récemment. Le premier de ces projets est le satellite Megha-Tropiques, conçu pour caractériser le potentiel de précipitation des nuages dans les régions tropicales et lancé en 2011. Puis, en 2013, est arrivée la mission SARAL/AltiKa, consacrée à la mesure du niveau des surfaces couvertes d’eau sur les océans et les continents.
En 2016, la visite officielle du président François Hollande en Inde a favorisé le démarrage du projet TRISHNA, tirant également parti de l’accord-cadre que le Cnes et l’ISRO avaient signé l’année précédente. La France et l’Inde lançaient ainsi une nouvelle étape de leur coopération spatiale sur le thème de l’eau.
Cette nouvelle coopération présente de nombreux avantages pour nos deux pays. L’industrie franco-européenne en bénéficie avec la forte implication de nos entreprises dans la réalisation de l’instrument thermique. Ainsi positionnés, nos industriels augmentent leur chance d’être impliqués dans les futurs grands contrats indiens. En contrepartie, ce schéma partenarial permet à l’Inde de parfaire son cheminement vers des industries stratégiques autonomes et vers des moyens de supervision environnementale appropriés.
Plus largement, TRISHNA consolide la coopération franco-indienne, ouvrant des perspectives de partenariats dans les secteurs des satellites d’observation et de télécommunications. Autres retombées importantes pour nos deux pays, le projet TRISHNA permet aux communautés scientifiques indienne (ISRO et instituts techniques universitaires) et française (CNES et laboratoires intervenants) de se positionner dans la recherche spatiale environnementale et de créer des applications à la fois rentables et utiles à différents secteurs d’activités, dont l’agriculture.
En combinant les données thermiques de TRISHNA avec des informations issues d’autres satellites (permettant d’évaluer la végétation, l’humidité des sols ou les précipitations), il sera possible d’estimer avec précision l’évapotranspiration réelle des cultures, c’est-à-dire la quantité d’eau effectivement utilisée par les plantes.
Cette information permettra aux agriculteurs, aux gestionnaires de bassins versants et aux décideurs politiques d’adapter les calendriers et les volumes d’irrigation en temps quasi réel, selon les besoins réels des cultures et non sur des moyennes ou des approches empiriques. Ce pilotage de l’irrigation « à la demande » représentera une avancée majeure, en particulier pour les régions où les ressources en eau sont limitées ou irrégulièrement réparties.
En Inde comme en France, des expérimentations sont déjà envisagées pour intégrer les données TRISHNA dans les systèmes d’aide à la décision utilisés par les agriculteurs. À terme, cela pourrait conduire à des économies d’eau significatives, à une réduction de l’impact environnemental de l’agriculture et à une meilleure résilience des systèmes de production face au changement climatique.
De manière plus générale, la mission pourra également contribuer à la prévention des risques liés aux évènements extrêmes, comme les canicules, les sécheresses, les feux, les inondations – des aléas auxquels nos deux pays sont de plus en plus confrontés.
En somme, TRISHNA offre à la France et à l’Inde une opportunité exceptionnelle de renforcer leur partenariat et de répondre aux défis économiques et climatiques auxquels nos deux pays et le monde entier font face aujourd’hui.
Philippe Maisongrande (responsable thématique Biosphère continentale, au Cnes) et Thierry Carlier (chef de projet TRISHNA) ont contribué à la réflexion sur les premières versions de cet article.
Corinne Salcedo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.02.2026 à 15:33
Baptiste Scancar, Scientifique spécialisé en intégrité scientifique, Institut Agro Rennes-Angers
David Causeur, Enseignant-chercheur, Institut Agro Rennes-Angers

Une étude récente pointe un chiffre alarmant : plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024. Cette production s’accélère et menace la production scientifique honnête.
Produire de la connaissance par la recherche scientifique donne lieu à une forte compétition entre équipes et individus, dans laquelle une publication dans une revue prestigieuse peut changer la trajectoire d’une carrière. Même si beaucoup remettent en cause les règles actuelles de cette compétition, l’évaluation de la qualité d’un chercheur repose essentiellement sur le nombre de ses publications, sur leur impact – mesuré par le volume des citations qu’elles génèrent – et sur le prestige des revues dans lesquelles elles sont publiées. L’importance de ces indicateurs dans l’obtention de rares financements et la progression des carrières individuelles contribue à encourager des comportements contraires à l’intégrité scientifique, tels que le recours à des pratiques frauduleuses.
Ce contexte a notamment favorisé l’émergence et la forte croissance d’organisations spécialisées dans la vente de faux articles scientifiques, les « paper mills » ou « fabriques à articles ». Ces dernières sont suspectées d’avoir produit des milliers d’articles au cours des dix dernières années, compromettant des pans entiers de la littérature scientifique. Dans notre étude, publiée dans le British Medical Journal (BMJ) en janvier 2026, nous estimons que plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024.
Alors que ces articles représentaient moins de 1 % des publications scientifiques annuelles en 1999, leur taux s’élève désormais à 15 % du contenu produit chaque année. La recherche contre le cancer est en danger : les fausses publications se répandent, et une intensification de ce problème est à prévoir.
Les « fabriques à articles scientifiques » produisent et vendent en quantités quasi industrielles de faux articles scientifiques. Elles adoptent même des techniques de marketing classique, en faisant de la publicité en ligne et en proposant à leurs clients de sélectionner leur place dans la liste des auteurs d’un article préfabriqué (la première et la dernière position étant souvent perçues comme plus prestigieuses) ainsi que le niveau de réputation du journal dans lequel l’article sera publié. Des recherches ont montré que le coût de ce service pouvait varier de quelques centaines à plusieurs milliers d’euros, et d’aucuns suspectent que certaines « fabriques à articles » pourraient même fournir un « service après-vente », par exemple apporter des corrections ou des réponses aux commentaires des lecteurs après publication, sur les sites des éditeurs ou sur les plateformes collaboratives, comme PubPeer.
Le nombre de publications attribuées aux « fabriques à articles » a explosé au début des années 2010, attestant l’existence d’un système frauduleux à grande échelle. L’essor de ces organisations est souvent présenté comme une conséquence de la culture dite du « Publish or Perish » (« Publier ou périr »), qui séduit une clientèle, composée de doctorants, de chercheurs et de cliniciens en difficulté, pour laquelle la publication est devenue une condition d’accès à un diplôme, un emploi ou une promotion.
Ce phénomène est d’ailleurs amplifié par l’existence d’agents intermédiaires et de réseaux organisés qui dépassent la simple production de manuscrits et interviennent en contournant et en accélérant les processus éditoriaux et de publication (les articles frauduleux peuvent être acceptés et publiés beaucoup plus rapidement que les articles authentiques). Cette collusion entre fabricants et éditeurs peu scrupuleux contribue à augmenter fortement la cadence de publication d’articles frauduleux, au point qu’elle peut largement dépasser celle des articles authentiques.
Les fabriques tirent leur productivité de modèles de rédaction prédéfinis, qui réutilisent souvent des fragments de texte et d’images issus de leurs productions précédentes. Cette méthode a favorisé la publication d’articles présentant des similarités de forme, comportant les mêmes tournures de phrases, les mêmes schémas expérimentaux ainsi que les mêmes erreurs méthodologiques ou stylistiques dans la littérature biomédicale, et notamment dans la recherche contre le cancer.
Ces indices permettent de suivre leur piste et d’identifier systématiquement leurs productions, comme dans le cas des images manipulées ou des « phrases torturées » (des reformulations hasardeuses de termes techniques, par exemple « péril de la poitrine » à la place de « cancer du sein »).
Notre combat contre la fraude scientifique débute en 2024 lorsque Baptiste Scancar, auteur de cet article, alors étudiant en master de science des données, part en Australie pour travailler sur la fraude scientifique avec Jennifer A Byrne (professeure de cancérologie à l’Université de Sydney) et Adrian Barnett (professeur de statistiques à la Queensland University of Technology). Jennifer avait constaté depuis des années le dévoiement de sa discipline, l’oncologie moléculaire, contaminée à grande échelle par les fausses publications, sans prise de conscience des communautés ni des institutions de recherche. L’objectif de cette collaboration était de créer une méthode généralisable à de grandes quantités d’articles pour détecter les productions des « fabriques à articles » dans le domaine du cancer, afin d’en mesurer l’ampleur et d’alerter sur le problème sous-jacent.
L’observation de fortes ressemblances stylistiques dans le titre et le résumé des articles frauduleux a conduit l’équipe à s’orienter vers des méthodes d’analyse centrées sur ces sections des articles, par ailleurs librement accessibles sur des plateformes de diffusion scientifique en ligne, comme PubMed. L’objectif est alors d’utiliser un algorithme d’intelligence artificielle pour différencier les articles authentiques des articles frauduleux, en identifiant des motifs communs à une liste d’articles identifiés comme frauduleux par l’observatoire Retraction Watch. Cette approche est finalement couronnée de succès, atteignant des performances d’identification très élevées (9 articles sur 10 sont bien classés par l’algorithme).
Après cette première étape, le projet se poursuit en France depuis 2025. L’équipe est complétée par David Causeur, également auteur de cet article. L’outil est amélioré par une analyse fine des erreurs d’identification et la méthodologie est affinée. Le modèle est alors utilisé pour analyser l’ensemble des publications liées au cancer depuis 1999, soit plus de 2,5 millions d’articles accessibles dans la base de données de PubMed, et les résultats sont alarmants. Environ 250 000 articles, quasiment 10 % des études, sont signalés comme textuellement similaires à des productions de fabriques à articles. Leur nombre est passé de 238 en 1999 à plus de 26 000 en 2020. Cette progression n’épargne pas les revues les plus prestigieuses (top 10 des journaux), où la proportion d’articles signalés dépasse également 10 % en 2022.
La répartition géographique des auteurs met en évidence une prédominance marquée de la Chine, avec près de 180 000 articles recensés, loin devant les États-Unis (10 500 articles) et le Japon (6 500 articles). Les publications suspectes sont retrouvées dans des revues de nombreux éditeurs, couvrant l’ensemble des types de cancer et la plupart des thématiques de recherche.
La présence massive d’articles frauduleux dans le domaine du cancer pose plusieurs problèmes majeurs.
Tout d’abord, le partage des connaissances scientifiques est aujourd’hui pollué massivement par les fausses informations, et les acteurs de la recherche peinent à mettre en place des actions correctives. L’ampleur de ces infractions majeures à l’intégrité scientifique doit aussi conduire à une réflexion sur le poids donné au volume des publications dans l’évaluation des projets de recherche et des équipes de chercheurs elles-mêmes. La validation implicite de connaissances scientifiques frauduleuses par leur publication, parfois dans des revues prestigieuses, compromet les processus d’attribution de financements et ouvre la voie à leur propagation en cascade par citation.
Par ailleurs, la recherche fondamentale sur le cancer, qui constitue la cible privilégiée des « fabriques à articles », précède le développement de traitements thérapeutiques, dont l’efficacité est menacée par la fraude à grande échelle, au détriment des patients.
Le développement récent des modèles de langage génératif, tels que ChatGPT, menace de rendre la détection des contenus frauduleux plus difficile et pourrait décupler la productivité de ces organisations. Par analogie avec le dopage dans le sport, il est à craindre que ce jeu du chat et de la souris entre détecteurs et fraudeurs ne débouche pas sur une éradication du problème, mais sur une escalade des stratégies de fraude.
En revanche, les politiques publiques d’évaluation de la recherche peuvent y remédier, en réduisant la pression à la publication que subissent les chercheurs. Il est urgent de redonner à la qualité intrinsèque des productions scientifiques plus de place dans leur évaluation, avant que la distinction entre contenu authentique et fabriqué devienne impossible.
Baptiste Scancar a reçu des financements du National Health and Medical Research Council (NHMRC), organisme Australien de financement de la recherche médicale.
David Causeur a reçu des financements de l'ANR.
26.02.2026 à 09:53
Shinichi Sunagawa, Associate Professor at the Department of Biology, Swiss Federal Institute of Technology Zurich
Chris Bowler, Directeur du laboratoire de génomique des plantes et des algues à l'Institut de Biologie, École normale supérieure (ENS) – PSL; Centre national de la recherche scientifique (CNRS)

For decades, we have thought of coral reefs as the “rainforests of the sea:” vibrant, complex ecosystems full of fish, sponges, and coral. However, our recent findings suggest we’ve been overlooking a crucial part of this picture. By looking beyond the colourful life into the microscopic world, we have uncovered a “hidden chemical universe” that could hold the key to the next generation of life-saving medicines.
Our work, published in Nature, is the result of an international collaborative effort between the Sunagawa, Paoli, and Piel labs, alongside the Tara Ocean Foundation: France’s first foundation to be recognised as promoting public interest in the world’s oceans, founded by Agnès Troublé alias French Fashion designer agnès b. By combining our expertise in marine ecology, microbiology, and biotechnology, we have taken a closer look at corals. Far more than just individual animals, we prefer to think of them as super-organisms: bustling cities where the coral animal provides the living architecture, while trillions of microbes inhabit them, carrying out vital services.
What we found within these microscopic communities was staggering. After analysing 820 samples from 99 coral reefs across the Pacific, we reconstructed the genomes of 645 microbial species living within the corals. The surprise? More than 99% of them were completely new to science. Deciphering their genetic code revealed that these tiny residents are not silent “germs,” but prolific chemical engineers. They harbour a greater variety of biosynthetic blueprints for natural products than has been documented in the entire global open ocean so far.
Our discovery didn’t happen in a single laboratory. It began aboard the 118-foot research schooner Tara, designed to withstand Arctic ice. After completing an extensive exploration of plankton across the global ocean, Tara served as our floating laboratory for the Tara Pacific mission. Over several years, our team visited 99 reefs across the Pacific. Life on Tara combined rugged seafaring with high-tech biology: while the crew managed the ship, teams of divers collected coral samples from remote archipelagos thousands of miles apart.
Back on land, the real detective work began. DNA sequencing at the French National Center of Sequencing (Genoscope) and genome reconstruction using ETH Zurich’s supercomputers allowed us to decode the genetic information from these microbes.
This enabled us to map Pacific coral microbiomes at an unprecedented scale. We found that microbes are highly specific to their coral hosts; each coral species has its own unique microbial fingerprint, shaped over millions of years of evolution.
Most current medical drugs were originally discovered in nature, many from soil bacteria. But we are running out of new “soil” leads, and antibiotic-resistant “superbugs” pose a growing global threat.
Here is where the tiny but mighty “chemical engineers” come in. Within their DNA, these microbes encode Biosynthetic Gene Clusters: instruction manuals for building diverse biochemical molecules, including antibiotics. Because coral-associated microbes live in the highly competitive reef environment, they have evolved sophisticated chemical weapons to defend their hosts or fight rivals. By identifying these Biosynthetic Gene Clusters, we have uncovered a “molecular library” written in a language we are only just beginning to translate. These chemicals may provide solutions to biotechnological challenges and human diseases.
Our discovery of new microbial species and biochemical diversity in corals is just the beginning. The Tara Pacific expedition studied only a handful of coral species, while at least 1,500 have been described worldwide, highlighting the enormous potential for scientific breakthroughs. But a tragedy is unfolding: as climate change warms the oceans, reefs are dying. When a reef disappears, we don’t just lose a beautiful ecosystem, we witness the “burning” of this library before we’ve had a chance to read the books.
The journey that began on Tara is now a race against time to unlock the secrets contained in the microbiomes of coral and other reef organisms before they are lost forever. Protecting reefs is critical, not only for the environment and the millions of people who directly depend on them, but also for preserving the biological pharmacy that could safeguard human health for generations to come.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Shinichi Sunagawa received funding from the Swiss National Science Foundation.
Chris Bowler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 17:08
Shinichi Sunagawa, Associate Professor at the Department of Biology, Swiss Federal Institute of Technology Zurich
Chris Bowler, Directeur du laboratoire de génomique des plantes et des algues à l'Institut de Biologie, École normale supérieure (ENS) – PSL; Centre national de la recherche scientifique (CNRS)

Depuis des décennies, nous voyons les récifs coralliens comme les « forêts tropicales aquatiques » : des écosystèmes colorés et complexes regorgeant de poissons, d’éponges et de coraux. Cependant, nos recherches récentes suggèrent que cette vision passe sous silence un aspect crucial des récifs coralliens. Au-delà de leurs couleurs si vivaces, ils abritent tout un monde microscopique. Cet univers caché se compose de nombreux ingénieurs chimistes, qui pourraient détenir les clés d’une prochaine génération de médicaments vitaux.
Nos travaux, publiés aujourd’hui dans Nature, fruit d’une collaboration internationale entre mon laboratoire et ceux des professeurs Paoli et Piel avec la Fondation Tara Océan, montrent que les coraux ne sont pas de « simples » animaux individuels, mais plutôt des « super-organismes ». On pourrait les imaginer comme des villes animées où le récif corallien fournit un habitat vivant à des milliards de microbes qui y accomplissent des fonctions vitales.
Ce que nous avons découvert au sein de ces communautés microscopiques nous a stupéfiés : en analysant 820 échantillons provenant de 99 récifs coralliens à travers le Pacifique, nous avons reconstitué le génome de 645 espèces microbiennes vivant dans les coraux… dont plus de 99 % étaient totalement inconnues.
Qui plus est, nos études génétiques montrent que ces minuscules résidents ne sont pas passifs, mais des ingénieurs chimistes prolifiques : ils abritent dans leur ADN une immense variété de « plans » biosynthétiques (qui visent la formation de composés chimiques par des êtres vivants, des bactéries par exemple). Cette variété est plus grande que ce qui a été documenté jusqu’à présent dans l’ensemble des océans du monde.
Notre découverte a commencé à bord de la goélette de recherche Tara, longue de 36 mètres et conçue pour résister à la glace arctique. Après avoir mené une exploration approfondie du plancton dans les océans du globe, Tara nous a servi de laboratoire flottant pour la mission Tara Pacific. Pendant plusieurs années, notre équipe a visité 99 récifs à travers le Pacifique. La vie à bord de Tara, c’est l’unique combinaison d’une navigation pas toujours paisible et d’une biologie high tech : tandis que l’équipage gérait le navire, des équipes de plongeurs collectaient des échantillons de coraux dans des archipels éloignés de plusieurs milliers de kilomètres.
De retour à terre, un vrai travail de détective a commencé. Le séquençage de l’ADN au Centre national de séquençage français (Genoscope) et la reconstruction des génomes à l’aide des supercalculateurs de l’ETH Zurich nous ont permis de décoder les informations génétiques des microbes coralliens.
Ainsi est apparue une carte des microbiomes coralliens du Pacifique, à une échelle inédite. Nous avons découvert que les microbes sont très spécifiques à leurs hôtes coralliens ; chaque espèce de corail possède sa propre empreinte microbienne façonnée au cours de millions d’années d’évolution.
La plupart des médicaments actuels ont été découverts dans la nature, le plus souvent à partir de bactéries du sol. Mais aujourd’hui, les bactéries résistantes aux antibiotiques constituent une menace mondiale croissante et nous sommes à court de nouvelles pistes dans le sol.
À lire aussi : De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar
C’est là que les minuscules mais puissants « ingénieurs chimistes » des récifs coralliens prennent toute leur importance en termes d’applications potentielles. Dans leur ADN, ces microbes codent des ensembles de gènes biosynthétiques : des manuels d’instructions pour construire diverses molécules biochimiques, y compris des antibiotiques.
En effet, comme les microbes associés aux coraux vivent dans l’environnement hautement compétitif des récifs, ils ont développé des armes chimiques sophistiquées pour défendre leurs hôtes ou combattre leurs rivaux. En identifiant ces ensembles de gènes biosynthétiques, nous avons donc découvert une « bibliothèque moléculaire » écrite dans un langage que nous commençons seulement à traduire. Ces substances chimiques pourraient peut-être apporter des solutions aux défis biotechnologiques et aux maladies humaines.
Notre découverte de nouvelles espèces microbiennes et de la diversité biochimique des coraux n’est qu’un début. L’expédition Tara Pacific n’a étudié qu’une poignée d’espèces de coraux, alors qu’au moins 1500 ont été décrites dans le monde entier, ce qui suggère un énorme potentiel de percées scientifiques.
Mais une tragédie est en train de se dérouler : à mesure que le changement climatique réchauffe les océans, les récifs coralliens meurent. Lorsqu’un récif disparaît, nous ne perdons pas seulement un magnifique écosystème, nous assistons à la « combustion » de cette bibliothèque, avant même d’avoir eu la chance d’en lire les livres.
Le voyage qui a commencé sur Tara est désormais une course contre la montre pour percer les secrets contenus dans les microbiomes des coraux et autres organismes récifaux avant qu’ils ne disparaissent à jamais. Il est essentiel de protéger les récifs, non seulement pour l’environnement et les millions de personnes qui en dépendent directement, mais aussi pour préserver la pharmacie biologique qui pourrait protéger la santé humaine pour les générations à venir.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Shinichi Sunagawa a reçu des financements de la Swiss National Science Foundation.
Chris Bowler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 16:48
Mark Nielsen, Associate Professor, School of Psychology, The University of Queensland
La vidéo d’un petit singe blotti contre une peluche a ému la planète. Derrière l’émotion, elle rappelle une leçon majeure de la psychologie : on ne grandit pas seulement avec de la nourriture, mais avec du lien.
Sa quête de réconfort a ému des millions d’internautes. Punch, un bébé macaque, est devenu une célébrité d’Internet. Abandonné par sa mère et rejeté par le reste de son groupe, il s’est vu offrir par les soigneurs du zoo municipal d’Ichikawa, au Japon, une peluche d’orang-outan pour lui servir de mère de substitution. Les vidéos le montrant agrippé au jouet ont depuis fait le tour du monde.
Mais l’attachement de Punch à son compagnon inanimé ne se résume pas à une vidéo bouleversante. Il renvoie aussi à l’histoire d’une célèbre série d’expériences en psychologie, menées dans les années 1950 par le chercheur américain Harry Harlow.
Les résultats de ces travaux ont nourri plusieurs des principes fondamentaux de la théorie de l’attachement, selon laquelle le lien entre le parent et l’enfant joue un rôle déterminant dans le développement de ce dernier.
Harry Harlow a séparé des singes rhésus de leur mère dès la naissance. Ces petits ont ensuite été élevés dans un enclos où ils avaient accès à deux « mères » de substitution.
La première était une structure en fil de fer, à laquelle on avait donné la forme d’une guenon, équipée d’un petit dispositif permettant de fournir nourriture et boisson.
La seconde était une poupée en forme de singe, recouverte d’éponge et de tissu éponge. Douce et réconfortante, elle n’apportait pourtant ni nourriture ni eau : ce n’était guère plus qu’une silhouette moelleuse à laquelle le petit pouvait s’agripper.
On se retrouve donc avec, d’un côté, une « mère » qui offre du réconfort mais ni nourriture ni boisson, et, de l’autre, une structure froide, dure et métallique, qui assure l’apport alimentaire.
Ces expériences répondaient au béhaviorisme, courant théorique dominant à l’époque. Les béhavioristes soutenaient que les bébés s’attachent à celles et ceux qui satisfont leurs besoins biologiques, comme la nourriture et l’abri.
Harlow a ainsi battu en brèche cette théorie en affirmant qu’un bébé ne se construit pas seulement à coups de biberons : il a besoin de contact, de chaleur et d’attention pour s’attacher.
Selon une lecture strictement béhavioriste, les petits singes auraient dû rester en permanence auprès de la « mère » en fil de fer, celle qui les nourrissait. C’est l’inverse qui s’est produit. Ils passaient l’essentiel de leur temps agrippés à la « mère » en tissu, douce mais incapable de leur donner à manger.
Dans les années 1950, Harlow a ainsi démontré que l’attachement repose d’abord sur le réconfort et la tendresse. Face au choix, les bébés privilégient la sécurité affective à la simple satisfaction des besoins alimentaires.
La découverte de Harlow a marqué un tournant, car elle a profondément remis en cause la vision béhavioriste dominante à l’époque. Selon cette approche, les primates – humains compris – fonctionneraient avant tout selon des mécanismes de récompense et de punition, et s’attacheraient à celles et ceux qui répondent à leurs besoins physiques, comme la faim ou la soif.
Dans ce cadre théorique, la dimension affective n’avait pas sa place. En menant ses expériences, Harlow a renversé cette grille de lecture : il a montré que l’attachement ne se réduit pas à la satisfaction des besoins biologiques, mais repose aussi, et surtout, sur le lien émotionnel.
La préférence des petits singes pour la « nourriture émotionnelle » – en l’occurrence les câlins à la mère de substitution recouverte de tissu éponge – a posé les bases de la théorie de l’attachement.
Selon cette théorie, le développement harmonieux d’un enfant dépend de la qualité du lien qu’il tisse avec la personne qui s’occupe de lui. On parle d’attachement « sécurisé » lorsque le parent ou le proche référent apporte chaleur, attention, bienveillance et disponibilité. À l’inverse, un attachement insécure se construit dans la froideur, la distance, la négligence ou la maltraitance.
Comme chez les singes rhésus, nourrir un bébé humain ne suffit pas. Vous pouvez couvrir tous ses besoins alimentaires, mais sans affection ni chaleur, il ne développera pas de véritable attachement envers vous.
Le zoo ne menait évidemment aucune expérience. Mais la situation de Punch reproduit, presque malgré elle, le dispositif imaginé par Harlow. Cette fois, ce n’est plus un laboratoire, mais un environnement bien réel – et pourtant, le résultat est étonnamment similaire. Comme les petits singes de Harlow qui privilégiaient la « mère » en tissu éponge, Punch s’est attaché à sa peluche Ikea.
Dans le cas du zoo, il manque évidemment un élément clé de l’expérience originale : il n’y a pas, en face, d’option dure mais nourricière avec laquelle comparer. Mais au fond, ce n’est pas ce que cherchait le singe. Ce qu’il voulait, c’était un refuge doux et rassurant – et c’est précisément ce que lui offrait la peluche.
Aujourd’hui, une grande partie de la communauté internationale reconnaît aux primates des droits qui, dans certains cas, s’apparentent à ceux accordés aux humains.
Avec le recul, les expériences de Harlow apparaissent comme particulièrement cruelles. On n’envisagerait pas de séparer un bébé humain de sa mère pour mener une telle étude ; pour beaucoup, il ne devrait pas davantage être acceptable de l’infliger à des primates.
Il est frappant de voir à quel point ce parallèle avec une expérience menée il y a plus de 70 ans continue de fasciner. Punch n’est pas seulement la nouvelle star animale d’Internet : il nous rappelle l’importance du réconfort et du lien.
Nous avons tous besoin d’espaces doux. Nous avons tous besoin d’endroits où nous sentir en sécurité. Pour notre équilibre et notre capacité à avancer, l’amour et la chaleur humaine comptent bien davantage que la simple satisfaction des besoins physiques.
Mark Nielsen a reçu des financements de l'Australian Research Council.
24.02.2026 à 17:03
Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.
Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.
L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.
Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.
Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.
L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.
Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.
Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.
L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.
En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.
De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.
Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.
À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse
Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.
Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.
Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.
L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.
La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.
L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.
Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.
La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.
C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.
Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.
Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.
À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.
Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.
PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.
PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.
Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.
This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.
23.02.2026 à 17:09
Rafael Almar, Chercheur en dynamique littorale, Institut de recherche pour le développement (IRD)
Erwin Bergsma, Expert en océanographie côtière, Centre national d’études spatiales (CNES)
Sophie Loyer, Ingénieur R&D, Service hydrographique et océanographique de la marine (Shom)
Bien connaître les fonds marins est crucial dans de nombreux domaines. Or, jusqu’à présent on ne savait en cartographier qu’une très faible proportion. Une nouvelle méthode permet, en utilisant des satellites, de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle des côtes du monde entier.
Nous connaissons bien les cartes topographiques des zones terrestres, avec leurs plaines, vallées, canyons et sommets. La topographie sous-marine est beaucoup moins connue, car elle est difficile à voir et à mesurer. Pourtant, lors du dernier âge glaciaire, lorsque le niveau de la mer se situait 120 mètres plus bas et qu’il était possible de traverser la Manche à pied, ces zones étaient apparentes. Dans le passé, la Méditerranée se serait également asséchée par évaporation, coupant le lien avec l’océan Atlantique à Gibraltar et révélant aux habitants de la Terre de l’époque ses fonds marins. Malheureusement, pour les explorer au sec, il faudrait que les fonds marins se découvrent, mais les prévisions actuelles de changement climatique, liées aux activités anthropiques, indiquent plutôt une hausse du niveau de la mer de l’ordre du mètre pour le XXIe siècle.
Cartographier ces fonds marins est un véritable enjeu actuel pour de multiples aspects : navigation, développement des énergies marines renouvelables (éoliennes, câbles sous-marins), mais aussi sécurité civile et risques de submersion/érosion. Ces mesures sont réalisées au moyen de navires océanographiques équipés de sondes (poids au bout d’un fil, puis échosondeurs), ce qui est coûteux et dangereux notamment lorsqu’il s’agit de s’approcher des petits fonds, en présence de vagues et de courants.
En France, c’est le Service hydrographique et océanographique de la Marine (Shom) qui est chargé de la cartographie des fonds marins pour le compte de l’État. Avec près de 11 millions de km2, la France possède la deuxième plus grande zone maritime au monde et le Shom ne peut mesurer qu’environ 1 % de cette surface. Au niveau mondial, seulement environ la moitié des zones côtières ont été mesurées, souvent une seule fois, et ces informations datent souvent de plusieurs décennies. Or, ces fonds peuvent évoluer sous l’action de mouvements tectoniques, de déplacements sédimentaires dus aux vagues et aux courants, aux rivières et aux estuaires, ainsi qu’aux dunes et bancs de sable sous-marins, aux chenaux de navigation, etc. Une réactualisation régulière est donc primordiale. Aujourd’hui, les missions de satellites d’observation de la Terre sont de plus en plus nombreuses, fréquentes et précises, offrant des capacités d’observation inégalées et en constante progression. C’est dans ce contexte que nous avons cherché à développer, avec le programme S2Shores (Satellites to Shores), une approche permettant d’utiliser cette nouvelle opportunité pour cartographier l’ensemble des fonds marins côtiers à l’échelle mondiale par satellite.
Dans un environnement côtier très dynamique, il est essentiel pour la sécurité de la navigation de disposer d’un état actualisé des fonds marins. Cela permet également d’améliorer la précision des modèles de vagues, de marée et de courants, dont les performances dépendent principalement de la connaissance de l’état des fonds marins. Face à l’augmentation des risques de submersion et d’érosion côtières liée au changement climatique, il est essentiel de pouvoir anticiper et prévenir ces phénomènes dans le cadre d’événements extrêmes. Cela permet également de réaliser des bilans sédimentaires en quantifiant les stocks de sable. Dans les pays du Sud, qui ne bénéficient pas de moyens traditionnels coûteux de cartographie des fonds marins, les promesses offertes par ces nouvelles techniques satellitaires, ainsi que les attentes, sont grandes.
Les méthodes satellitaires existantes pour estimer les fonds marins sont principalement basées sur l’observation directe du fond : on mesure ce que l’on voit. Cette approche est efficace dans les eaux claires et transparentes, comme dans les atolls, mais elle est moins performante dans les eaux turbides et troubles, comme autour des panaches de rivières, dans les zones sableuses ou vaseuses. En moyenne, on considère que la profondeur atteignable est d’environ 15 mètres. Une calibration avec des mesures sur place, dites in situ, est la plupart du temps nécessaire.
L’approche que nous avons développée est fondée sur une méthode inverse : on mesure les vagues dont les caractéristiques géométriques (longueur d’onde, c’est-à-dire la distance entre deux crêtes) et cinématiques (vitesse) sont modulées par les fonds marins en zone côtière afin d’estimer la profondeur. Cette méthode permet d’étendre le champ d’application des méthodes spatiales aux eaux turbides et plus profondes, jusqu’aux plateaux continentaux, à des profondeurs de plus de 50 mètres, soit une augmentation potentielle de +58 % ou 3,1 millions de km2 par rapport aux méthodes basées sur la couleur de l’eau avec une moyenne mondiale grossière de visibilité des fonds de 15 mètres.
En pratique, nous utilisons les images optiques des satellites de la mission Sentinel-2 de l’Agence spatiale européenne, qui offrent une réactualisation régulière, de l’ordre de cinq à dix jours selon les zones, avec une résolution de 10 mètres. Sentinel-2 dispose de plusieurs bandes de couleur, dont le rouge et le vert, que nous utilisons ici. Ces bandes ne sont pas acquises exactement au même moment. C’est ce décalage d’environ 1 seconde entre ces deux bandes que nous exploitons pour détecter la propagation des vagues, de l’ordre de 1 à 10 mètres par seconde. Tout cela est possible avec un satellite qui passe à environ 700 km d’altitude et 7 km par seconde.
Établir cet atlas global des fonds marins des zones côtières est également une prouesse en termes de traitement de masse de plus d’un million d’images sur le supercalculateur TREX du Cnes, où sont également stockées toutes ces images pour un temps d’accès minimum.
Une chaîne de traitement a été réalisée dans le cadre du programme S2Shores afin d’optimiser ces traitements de manière automatisée.
Nous continuons à faire progresser le cœur du code d’estimation des fonds marins et incorporons différentes missions, comme la récente C03D développée conjointement par le Cnes et Airbus Defence and Space. Après cette démonstration globale à basse résolution (1 km), ces codes sont ouverts et libres d’utilisation pour répondre à des besoins spécifiques, comme des projets d’aménagement, par exemple, ou dans le cadre de jumeaux numériques pour réaliser des scénarios d’inondation ou d’érosion côtière, lorsqu’ils sont combinés à un modèle numérique.
Rafael Almar a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)
Erwin Bergsma a reçu des financements du CNES.
Sophie Loyer a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)
23.02.2026 à 11:37
Gaurav Gupta, Professor of AI and Digital Entrepreneurship, Neoma Business School
Neha Chaudhuri, Professeur en management de l'information, TBS Education

L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?
Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.
L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.
Mais ce n’est pas le cas.
Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.
Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.
C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.
Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.
Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.
Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.
Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.
À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail
Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.
Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».
Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.
Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :
Traducteur des expertises
Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.
Tâches fastidieuses
L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.
La dernière phase, celle du suivi, recèle un danger caché.
Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.
À lire aussi : Et si votre prochain collègue était un agent IA ?
Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.
Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.
Une stratégie en fonction des étapes
Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.
Au cours de la phase de lancement
Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.
Au cours de la phase d’exécution
Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.
Au cours de la phase de suivi
Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
22.02.2026 à 08:17
Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.
Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.
Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.
These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.
For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.
Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.
To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.
While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.
Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.
For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.
À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation
To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.
However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.
To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.
One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.
Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.
For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.
Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.
This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.
In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.
Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.
However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.
In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.
To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.
PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.
At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.
18.02.2026 à 16:57
David Reid, Professor of AI and Spatial Computing, Liverpool Hope University

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.
Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.
Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.
Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.
Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.
Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.
Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.
La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.
Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.
Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».
Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.
Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.
Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.
Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.
On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.
Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.
Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.
Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.
Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.
La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.
Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.
Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.
Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.
Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.
Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».
Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.
La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.
Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.
La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.
David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 12:02
Alessia Lefébure, Sociologue, membre de l'UMR Arènes (CNRS, EHESP), École des hautes études en santé publique (EHESP)
Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Pourtant, le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.
Restrictions de visas pour les chercheurs et étudiants étrangers, attaques politiques visant certaines des plus grandes universités de recherche, suspensions soudaines de financements publics, notamment dans le champ du climat et de l’environnement : depuis la réélection de Donald Trump en novembre 2024, ces décisions ont suscité une forte surprise médiatique. Elles sont souvent présentées comme une rupture brutale avec le modèle américain de soutien à la science. Les titres alarmistes de la presse internationale parlent d’une « guerre ouverte contre les universités », d’un « assèchement accéléré des financements scientifiques » ou encore de « science assiégée ».
Pourtant, si leur forme et leur rapidité frappent, leur logique est beaucoup moins nouvelle. Ces mesures s’inscrivent dans des tendances de fond et désormais structurelles. Elles accélèrent des fragilités identifiées de longue date : un désengagement relatif et discontinu de l’investissement public, un recours croissant aux financements privés, une concentration des ressources dans quelques secteurs et institutions, et surtout une dépendance durable à l’égard des doctorants et chercheurs étrangers pour l’avancée de nombreux fronts de science.
Le leadership scientifique américain est le produit d’une trajectoire historique spécifique. À partir des années 1950, dans le contexte de la guerre froide, l’État fédéral investit massivement dans la recherche et l’enseignement supérieur, parallèlement à l’effort déployé par les nombreuses fondations philanthropiques privées. Financement public, autonomie académique et ouverture internationale forment alors un ensemble cohérent, au service du soft power américain. Pendant plusieurs décennies, les indicateurs convergent : domination de la production scientifique, capacité d’innovation, attractivité internationale exceptionnelle, accumulation de prix Nobel.
Cet équilibre commence toutefois à se fragiliser dès les années 1990. En valeur absolue, les États-Unis restent le premier financeur mondial de la recherche, avec une dépense intérieure de recherche et développement (R&D) représentant environ 3,4 % du PIB au début des années 2020. Mais la répartition de cet effort a profondément évolué : près de 70 % de la R&D américaine est désormais financée par le secteur privé, tandis que l’effort fédéral de recherche stagne autour de 0,7 % du PIB. Cette dynamique contraste avec celle de plusieurs pays asiatiques, notamment la Chine, où la dépense publique de R&D a fortement augmenté depuis les années 2000 dans le cadre de stratégies nationales continues.
Le financement public devient plus erratique : les universités se tournent davantage vers les frais d’inscription et les partenariats privés, tandis que formations longues et carrières scientifiques deviennent moins accessibles pour une partie des étudiants américains. La toute dernière réforme, engagée en 2026 par l’administration Trump, en plafonnant fortement les prêts fédéraux pour les cycles de master et de doctorat – qui permettaient jusqu’ici de couvrir l’intégralité du coût des études – réduira davantage la capacité des universités à former sur le long terme, en particulier dans les disciplines scientifiques et technologiques exigeant plusieurs années de formation.
À lire aussi : États-Unis : la dette étudiante, menace pour les universités et enjeu politique majeur
Le film Ivory Tower, réalisé en 2014 par le cinéaste Andrew Rossi et nourri des analyses du sociologue Andrew Delbanco, alertait déjà sur les signes d’épuisement du modèle universitaire américain. C’est dans ce contexte que la dépendance aux étudiants et doctorants étrangers s’accroît fortement, en particulier dans les mathématiques, les technologies et les sciences des données.
Les rapports annuels de la National Science Foundation montrent que, déjà au milieu des années 2010, les titulaires de visas temporaires représentent une part décisive – souvent majoritaire – des doctorants dans plusieurs disciplines clés : près des deux tiers des doctorats en informatique, plus de la moitié en ingénierie et en mathématiques. La grande majorité d’entre eux (80 %) restent ensuite aux États-Unis si la politique migratoire le leur permet.
Cette dépendance, qui n’a fait qu’augmenter, n’est pas marginale : elle constitue désormais un pilier du fonctionnement quotidien de la recherche américaine. Les restrictions migratoires mises en œuvre sous la première administration Trump, puis durcies en 2025, ne font que rendre pleinement visible une vulnérabilité stratégique pour l’avenir du pays.
Les évolutions de la science américaine ont pris place dans un contexte mondial profondément transformé depuis les années 1990. Les dépenses de recherche et développement progressent rapidement en Asie, tandis que la part relative des États‑Unis et de l’Europe tend à se stabiliser voire à baisser dans de nombreux pays de la zone OCDE.
La trajectoire chinoise est à cet égard centrale. Depuis plus de trente ans, la Chine a engagé une stratégie continue, combinant investissements massifs, planification de long terme, développement des « laboratoires clés », redéfinition des règles du jeu des classements internationaux, montée en gamme des formations doctorales, politiques actives de publication et de retour des chercheurs expatriés. Cette trajectoire ne relève pas d’un simple rattrapage technologique, mais d’une appropriation sélective de modèles de formation, d’organisation et de gouvernance scientifique, en partie inspirés de l’expérience américaine.
Les résultats sont aujourd’hui tangibles : progression rapide des publications scientifiques – la Chine est devenue en 2024 le premier pays au monde en volume d’articles indexés dans la base Web of Science, avec près de 880 000 publications annuelles, contre environ 26 000 au début des années 2000 – et surtout une présence croissante dans les dépôts de brevet : près de 1,8 million de demandes en une seule année, soit plus de trois fois le volume américain, selon l’Organisation mondiale de la propriété intellectuelle (OMPI/WIPO).
À cela s’ajoutent des politiques ciblées pour attirer ou faire revenir des chercheurs chinois formés à l’étranger, contribuant à réduire progressivement l’asymétrie historique avec les États-Unis. Loin de produire une ouverture politique, cette circulation maîtrisée des modèles contribue à la modernisation de l’État tout en renforçant les capacités de contrôle et de légitimation du pouvoir sur les élites scientifiques et administratives.
L’article récent du New York Times soulignant le recul relatif de Harvard et d’autres universités américaines dans certains classements mondiaux a été interprété comme une sonnette d’alarme, le signe d’un déclin soudain. En réalité, ces classements mettent en lumière surtout des évolutions graduelles des positions relatives, révélatrices des recompositions engagées de longue date. Les universités américaines demeurent prestigieuses et sélectives, mais elles ne sont plus seules au sommet dans un paysage scientifique désormais multipolaire.
Les indicateurs internationaux de l’innovation prolongent ce constat : en valeur absolue, les États-Unis restent l’un des premiers investisseurs mondiaux en recherche et développement. Mais leur avance relative s’érode : depuis le début des années 2000, la progression de leur effort de R&D est nettement plus lente que celle de nombreux pays concurrents.
Au-delà des décisions de l’administration Trump, les causes sont structurelles : continuité et niveau de l’investissement public, capacité à former et retenir les talents, cohérence des orientations scientifiques, place accordée à la recherche fondamentale. Là où la Chine et plusieurs pays d’Asie ont inscrit la science dans des stratégies nationales de long terme, les États-Unis ont laissé s’accumuler incohérences et déséquilibres, misant sur les acquis de leur attractivité passée. Ils conservent néanmoins des universités d’un niveau exceptionnel, d’importantes capacités de financement et d’innovation ainsi qu’une puissance d’attraction encore largement dominante.
À court terme, rien n’indique un décrochage brutal. En revanche, la pérennité de ce leadership ne peut plus être tenue pour acquise. Elle est désormais directement affectée par des remises en cause explicites de l’autonomie académique et des conditions ordinaires de fonctionnement des universités.
Ce leadership dépendra de la capacité des universités à recruter librement, à l’échelle mondiale, leurs enseignants et chercheurs ; à maintenir des politiques et des programmes de formation et de recherche à l’abri des cycles politiques ; à protéger leurs dirigeantes et dirigeants des pressions partisanes ; et à garantir aux étudiants comme aux chercheurs des conditions de travail intellectuel et des perspectives professionnelles stables.
Ce sont précisément ces conditions que les décisions récentes de Donald Trump rendent durablement incertaines.
Alessia Lefébure a enseigné à Columbia University entre 2011 et 2017.
18.02.2026 à 11:54
Estelle Davet, Inspectrice générale, cheffe du service national de police scientifique (SNPS)
À Écully, dans le Rhône, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime. Découvrez l’odorologie.
En janvier 2012, à Montceau-les-Mines (Saône-et-Loire), un homme cagoulé braque une banque dès l’ouverture. Quelques mois plus tard, un second établissement de la même ville est attaqué selon un mode opératoire similaire.
Les enquêteurs disposent de vidéos de surveillance, mais les images sont trop imprécises pour identifier formellement le suspect. L’ADN, habituellement décisif, ne livre aucun résultat exploitable. Reste une trace, plus discrète, presque invisible : l’odeur laissée dans le véhicule utilisé pour la fuite. C’est cette trace que la police scientifique va exploiter grâce à une de ses techniques d’expertise : l’odorologie, une discipline encore méconnue du grand public où des chiens spécialement formés procèdent à la comparaison et à l’identification d’odeurs humaines. Au procès, cette expertise permet la condamnation du braqueur.
Lorsque nous évoquons les chiens policiers, l’image des unités déployées sur le terrain, mobilisées dans la détection d’explosifs, de stupéfiants ou encore la recherche de personnes disparues, s’impose naturellement. Cependant, à côté de cette réalité opérationnelle se déploie une autre activité, moins visible : celle des chiens et de leurs maîtres œuvrant au sein de la police scientifique.
En France, il existe un lieu unique appelé le plateau national d’odorologie, qui réunit les seuls chiens capables de comparer une trace odorante laissée sur une scène d’infraction avec l’odeur corporelle d’un suspect ou d’une victime. Cette spécialité cynophile, créée en 2000 (par Daniel Grignon, cynotechnicien formé en Hongrie) devient pleinement opérationnelle à partir de 2003.
Aujourd’hui, l’activité d’odorologie s’appuie sur quatre agents et sept chiens (bergers belges malinois, bergers allemands, épagneul English Springer) qui, comme les experts humains en laboratoire, n’interviennent pas sur le terrain mais travaillent exclusivement au sein du plateau national d’Écully (à côté de Lyon, Rhône), où ils procèdent aux comparaisons odorantes. Deux autres chiens sont actuellement en formation, entamée à l’âge de six mois pour une durée d’environ un an.
Toute analyse en odorologie débute par une phase de prélèvement, déterminante pour la suite de la procédure. Réalisés exclusivement par des policiers habilités (500 préleveurs habilités de la police nationale en 2025), les prélèvements portent sur deux types d’odeurs complémentaires.
D’une part, les traces odorantes sont recueillies sur les lieux de l’infraction, à partir de tout support ayant été en contact avec une personne, qu’il s’agisse d’un siège, d’un volant, d’une poignée ou d’un vêtement. D’autre part, les odeurs corporelles sont directement prélevées sur les individus mis en cause ou sur les victimes : ceux-ci malaxent pendant plusieurs minutes des tissus spécifiques afin d’y transférer les molécules odorantes caractéristiques de leur signature chimique. Ces dernières sont stockées dans une pièce spécifique : l’odorothèque où, à ce jour, 9 600 scellés judiciaires sont stockés.
Une fois les prélèvements réalisés, débute alors la phase d’analyses. Les traces odorantes prélevées sur la scène d’infraction sont comparées à l’odeur corporelle du mis en cause ou de la victime lors d’une parade d’identification réalisée par les chiens spécialement formés.
La trace est d’abord présentée au chien, qui la sent et la mémorise, puis il progresse le long d’une ligne composée de cinq bocaux contenant chacun une odeur corporelle différente : un seul correspond à l’odeur du mis en cause ou de la victime à identifier, les quatre autres servant d’odeurs de comparaison.
S’il reconnaît l’odeur à identifier, le chien se couche devant le bocal correspondant ; s’il ne reconnaît aucune des odeurs, il revient vers son maître. L’ensemble du processus dure environ 0,6 seconde, le temps pour le chien de placer son museau dans le bocal, de découvrir l’odeur qu’il contient, de l’analyser et de décider s’il doit marquer l’arrêt ou non.
La position des cinq bocaux est ensuite modifiée de façon aléatoire et le travail est répété une seconde fois avant qu’un troisième passage soit effectué sur une ligne de contrôle ne contenant pas l’odeur du mis en cause ou de la victime. Lorsque le premier chien a terminé son travail, la même opération est réalisée avec, au moins un second chien.
Une identification est considérée comme établie lorsque deux chiens ont marqué la même odeur, chacun au cours d’au moins deux passages, et que chacun d’eux a également réalisé au moins une ligne à vide.
Chaque être humain possède une odeur corporelle propre, constituée de molécules volatiles issues principalement de la dégradation bactérienne des sécrétions de la peau, comme la sueur et le sébum. Cette odeur n’est pas uniforme : elle se compose de plusieurs éléments. Seule la composante primaire de l’odeur humaine demeure stable au cours du temps. C’est précisément cette composante primaire qui est utilisée par les chiens d’odorologie pour identifier un individu, celle-ci ne pouvant pas être altérée par des composantes variables, comme le parfum.
Elle constitue une véritable signature chimique individuelle, comparable, dans son principe, à une empreinte biologique. Le chien reste le seul capable de reconnaître cette composante invariable, indispensable à l’identification. Son système olfactif explique cette performance. Lorsque les molécules odorantes pénètrent dans la cavité nasale, elles se lient aux récepteurs de l’épithélium olfactif, déclenchant un influx nerveux transmis au bulbe olfactif, puis au cerveau, où l’odeur est analysée et mémorisée.
L’odorologie s’appuie sur un protocole rigoureux, conçu pour garantir la fiabilité à la fois scientifique et judiciaire des résultats obtenus. Son recours s’inscrit dans un cadre juridique strict et est réservé aux infractions d’une certaine gravité, à partir du délit aggravé (vol avec violence, cambriolage aggravé, séquestration…) et jusqu’aux crimes.
Cette expertise, pleinement intégrée aux pratiques de la police scientifique, ne statue pas à elle seule sur la culpabilité d’un individu, mais apporte un élément objectif essentiel au raisonnement judiciaire. Lorsqu’un rapprochement est établi, elle atteste un fait précis : la présence d’un individu (auteurs ou victimes) sur une scène d’infraction ou un contact avec des objets.
Cette technique intervient souvent en complément d’autres moyens d’investigation, mais elle peut aussi devenir déterminante lorsque les images sont floues, les témoignages fragiles ou les traces biologiques absentes. Depuis 2003, 787 dossiers ont été traités par le plateau national d’odorologie, aboutissant à 195 identifications. Les experts ont été appelés à témoigner 44 fois devant des cours d’assises, preuve de la reconnaissance judiciaire de cette discipline.
À l’heure où les avancées technologiques occupent une place centrale dans la police scientifique, l’odorologie rappelle que le vivant demeure parfois irremplaçable. Fondée sur un processus complexe et rigoureux, conforme aux exigences de la norme NF EN ISO/CEI 17025, la comparaison d’odeurs ne laisse aucune place au hasard. Elle s’inscrit dans un faisceau d’indices, contribuant à la manifestation de la vérité.
Invisible, silencieuse, mais persistante, cette expertise rappelle que le crime laisse toujours une trace, faisant écho au principe formulé dès 1920 par Edmond Locard : « Nul ne peut agir avec l’intensité que suppose l’action criminelle sans laisser des marques multiples de son passage. »
Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.
Estelle Davet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 11:53
Charlotte De Sainte Maresville, Doctorante 3 eme année en marketing et sciences affectives, Université Bretagne Sud (UBS)
Christine Petr, Professeur des Université en Marketing - Sciences de Gestion et du Management, Université Bretagne Sud (UBS)
Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.
Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.
Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.
Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?
L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.
Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.
Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.
Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.
Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.
Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.
En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.
Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).
Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.
Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.
Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.
Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.
Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.
Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.
Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.
À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?
Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.
Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.
En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.
Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.
Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.
Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.
Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.
Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.