17.09.2025 à 16:25
Hela Hassen, Lecturer in Marketing, Kedge Business School
Matthew Higgins, Senior Lecturer in Marketing and Consumption
Precious Akponah, Associate Lecturer in Marketing
Pour que les devoirs sur table et les notes soient de réels outils de progression pour les étudiants, il ne suffit pas de rendre publiques les grilles d’évaluation. Encore faut-il s’assurer que les étudiants en comprennent bien les enjeux et la mise en œuvre. Explication à partir d’une recherche-action dans une université britannique.
« Travail superficiel », « manque de rigueur » ou encore « absence de pensée critique »… De telles observations, relevées sur des copies d’étudiants, restent floues et sont souvent perçues comme arbitraires.
Si l’enjeu d’une évaluation est de permettre aux étudiants de comprendre leurs lacunes pour progresser, ne faudrait-il pas envisager une autre orientation et privilégier le dialogue ?
Nombre d’universités tentent de mettre l’accent sur des modalités d’évaluation plus transparentes, incluant des grilles de critères à respecter afin d’obtenir la note attendue. La formulation des attendus demeure néanmoins souvent opaque et ces grilles restent mal comprises ou voire ignorées par les étudiants. Des expressions comme « démontrez une compréhension approfondie » ou « utilisez des sources pertinentes » peuvent sembler évidentes aux enseignants. Mais elles ne le sont pas toujours pour les étudiants, surtout s’il s’agit de les traduire en actions concrètes.
En France, un rapport du comité d’évaluation de l’enseignement supérieur souligne que l’évaluation reste bien souvent trop floue, disparate et peu en phase avec les compétences visées par les formations. Il appelle à un ciblage plus clair et collectif des pratiques d’examen par les universités.
Lorsque les évaluations sont multiples (dans des contextes de cours massifiés et de délais courts par exemple), les retours se transforment rapidement en simple procédure administrative, c’est-à-dire quelques lignes copiées-collées, et perdent leur fonction pédagogique.
Une recherche-action menée dans une université britannique a testé une alternative : organiser des temps de dialogue autour des grilles d’évaluation, en amont des rendus de devoirs des étudiants puis après la restitution des notes. Plutôt que de découvrir les attendus une fois leur copie notée, les étudiants ont pu poser leurs questions à l’avance, commenter les termes ambigus, et co-construire une compréhension de ce qui était attendu.
Les discussions entre étudiants et professeurs ont permis de clarifier des notions souvent floues : qu’est-ce qu’un raisonnement rigoureux ? Comment différencier un travail « bon » d’un travail « excellent » ? L’objectif de ces échanges n’était pas de simplifier les exigences, mais de traduire les attentes dans un langage clair, afin de placer les étudiants au centre du processus d’évaluation et en les rendant pleinement acteurs de leur apprentissage.
Les résultats ont été probants : les étudiants qui ont participé à ces dialogues ont obtenu de meilleures notes. Tous ont validé leurs modules, certains ont même obtenu suite à cette expérience les meilleurs résultats qu’ils aient eus depuis le début d’année. Mais au-delà des notes, le plus frappant a été le changement d’attitude des étudiants : ils ont manifesté moins d’anxiété, plus d’engagements, une meilleure compréhension des attentes.
Cette approche repose sur un principe simple, mais souvent oublié : le feedback est une conversation, non un verdict. Cela rejoint les travaux de chercheurs comme David Carless, qui défendent l’idée que l’évaluation doit être un pur moment d’apprentissage et non une fin en soi. Or, pour cela, encore faut-il encore que les étudiants puissent échanger avec l’enseignant. L’évaluation cesse alors d’être un outil de tri, pour devenir un levier de progression.
Au lieu d’envoyer des commentaires impersonnels, pourquoi ne pas organiser un atelier, une discussion collective, une relecture croisée ? Ce n’est pas une question de temps supplémentaire, mais de changement de posture : passer d’un modèle descendant à une relation co-constructive entre l’enseignant et l’étudiant.
Avec la montée en puissance des outils comme ChatGPT, une inquiétude s’installe et un nombre important d’universités s’interrogent : « Comment savoir qui a rédigé ce devoir ? », « Faut-il multiplier les contrôles, mieux les surveiller ou sanctionner ? » Une autre stratégie consiste à assortir toute évaluation d’un échange mutuel entre professeur et étudiant.
Des chercheurs stipulent qu’encadrer plutôt qu’interdire l’IA apparaît comme la solution la plus équilibrée pour préserver l’éthique tout en encourageant l’innovation pédagogique. Une évaluation ouverte ou un dialogue, où les critères sont explicités, discutés et interprétés mutuellement, s’inscrit parfaitement dans cette démarche : elle protège contre la tricherie, tout en valorisant l’autonomie de l’étudiant.
Quand l’étudiant sait qu’il devra expliquer sa démarche, discuter ses choix, relier son travail aux critères attendus, il devient plus difficile de simplement copier une production générée par une IA. Le dialogue devient alors un outil anti-triche naturel, parce qu’il repose sur une compréhension vivante du savoir, pas sur la restitution mécanique d’un résultat. L’évaluation ouverte ou dialogue n’est donc pas seulement plus juste, elle est aussi plus résistante aux dérives technologiques.
Le dialogue autour de l’évaluation peut être un rempart naturel contre les dérives de l’IA, à condition que ce dernier soit préparé en amont, ciblé sur les apprentissages et porteur d’objectifs pédagogiques clairs. Il doit offrir à chacun les mêmes chances de participation, dans un climat à la fois détendu et exigeant. L’enjeu n’est pas seulement de discuter des notes, mais de permettre à l’étudiant de comprendre, progresser, valoriser ses compétences et ainsi de capitaliser ses acquis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.09.2025 à 16:25
Simon Goodman, Lecturer in Evolutionary Biology, University of Leeds
Le recul alarmant de la Caspienne, plus grande mer fermée du monde, entraîne des bouleversements écologiques, humains et géopolitiques dans toute cette zone aux confins de l’Europe. Les pays qui l’entourent semblent déterminés à agir, mais leur réaction risque d’être trop lente face à ce changement très rapide.
C’était autrefois un refuge pour les flamants, les esturgeons et des milliers de phoques. Mais les eaux qui reculent rapidement transforment la côte nord de la mer Caspienne en étendues arides de sable sec. Par endroits, la mer s’est retirée de plus de 50 km. Les zones humides deviennent des déserts, les ports de pêche se retrouvent à sec, et les compagnies pétrolières draguent des chenaux toujours plus longs pour atteindre leurs installations offshore.
Le changement climatique est à l’origine de ce déclin spectaculaire de la plus grande mer fermée du monde. Située à la frontière entre l’Europe et l’Asie centrale, la mer Caspienne est entourée par l’Azerbaïdjan, l’Iran, le Kazakhstan, la Russie et le Turkménistan, et fait vivre environ 15 millions de personnes.
La Caspienne est un centre de pêche, de navigation et de production de pétrole et de gaz, et son importance géopolitique est croissante, puisqu’elle se trouve à la croisée des intérêts des grandes puissances mondiales. À mesure que la mer s’appauvrit en profondeur, les gouvernements sont confrontés au défi crucial de maintenir les industries et leurs moyens de subsistance, tout en protégeant les écosystèmes uniques qui les soutiennent.
Je me rends sur la Caspienne depuis plus de vingt ans, pour collaborer avec des chercheurs locaux afin d’étudier le phoque de la Caspienne, une espèce unique et menacée, et soutenir sa conservation. Dans les années 2000, l’extrême nord-est de la mer formait une mosaïque de roselières, de vasières et de chenaux peu profonds grouillants de vie, offrant des habitats aux poissons en frai, aux oiseaux migrateurs et à des dizaines de milliers de phoques qui s’y rassemblaient au printemps pour muer.
Aujourd’hui, ces lieux sauvages et reculés où nous capturions des phoques pour des études de suivi par satellite sont devenus des terres sèches, en transition vers le désert à mesure que la mer se retire, et la même histoire se répète pour d’autres zones humides autour de la mer. Cette expérience fait écho à celle des communautés côtières, qui voient, année après année, l’eau s’éloigner de leurs villes, de leurs quais de pêche et de leurs ports, laissant les infrastructures échouées sur des terres nouvellement asséchées, et les habitants inquiets pour l’avenir.
Le niveau de la mer Caspienne a toujours fluctué, mais l’ampleur des changements récents est sans précédent. Depuis le début de ce siècle, le niveau de l’eau a baissé d’environ 6 cm par an, avec des chutes allant jusqu’à 30 cm par an depuis 2020. En juillet 2025, des scientifiques russes ont annoncé que la mer était descendue en dessous du niveau minimum précédent enregistré depuis le début des mesures instrumentales.
Au cours du XXe siècle, les variations étaient dues à une combinaison de facteurs naturels et de détournements d’eau par l’homme pour l’agriculture et l’industrie, mais aujourd’hui, le réchauffement climatique est le principal moteur du déclin. Il peut sembler inconcevable qu’une masse d’eau aussi vaste que la Caspienne soit menacée, mais dans un climat plus chaud, le débit d’eau entrant dans la mer par les rivières et les précipitations diminue, et il est désormais dépassé par l’augmentation de l’évaporation à la surface de la mer.
Même si le réchauffement climatique est limité à l’objectif de 2 °C fixé par l’accord de Paris, le niveau de l’eau devrait baisser jusqu’à dix mètres par rapport au littoral de 2010. Avec la trajectoire actuelle des émissions mondiales de gaz à effet de serre, le déclin pourrait atteindre 18 mètres, soit environ la hauteur d’un immeuble de six étages.
Comme le nord de la Caspienne est peu profond –, une grande partie n’atteint qu’environ cinq mètres de profondeur – de petites diminutions de niveau entraînent d’immenses pertes de surface. Dans une recherche récente, mes collègues et moi avons montré qu’un déclin optimiste de dix mètres mettrait à découvert 112 000 kilomètres carrés de fond marin – une superficie plus grande que l’Islande.
Les conséquences écologiques seraient dramatiques. Quatre des dix types d’écosystèmes uniques à la mer Caspienne disparaîtraient complètement. Le phoque de la Caspienne, une espèce menacée, pourrait perdre jusqu’à 81 % de son habitat de reproduction actuel, et l’esturgeon de la Caspienne perdrait l’accès à des zones de frai essentielles.
Comme lors de la catastrophe de la mer d’Aral, où un autre immense lac d’Asie centrale a presque totalement disparu, des poussières toxiques issues du fond marin exposé seraient libérées, avec de graves risques pour la santé.
Des millions de personnes risquent d’être déplacées à mesure que la mer se retire, ou de se retrouver confrontées à des conditions de vie fortement dégradées. Le seul lien de la mer avec le réseau maritime mondial passe par le delta de la Volga (qui se jette dans la Caspienne), puis par un canal en amont reliant le Don, offrant des connexions vers la mer Noire, la Méditerranée et d’autres systèmes fluviaux. Mais la Volga est déjà confrontée à une réduction de sa profondeur.
Des ports comme Aktau au Kazakhstan et Bakou en Azerbaïdjan doivent être dragués simplement pour pouvoir continuer à fonctionner. De même, les compagnies pétrolières et gazières doivent creuser de longs chenaux vers leurs installations offshore dans le nord de la Caspienne.
Les coûts déjà engagés pour protéger les intérêts humains se chiffrent en milliards de dollars, et ils ne feront qu’augmenter. La Caspienne est au cœur du « corridor médian », une route commerciale reliant la Chine à l’Europe. À mesure que le niveau de l’eau baisse, les cargaisons maritimes doivent être réduites, les coûts augmentent, et les villes comme les infrastructures risquent de se retrouver isolées, à des dizaines voire des centaines de kilomètres de la mer.
Les pays riverains de la Caspienne doivent s’adapter, en déplaçant des ports et en creusant de nouvelles voies de navigation. Mais ces mesures risquent d’entrer en conflit avec les objectifs de conservation. Par exemple, il est prévu de draguer un nouveau grand chenal de navigation à travers le « seuil de l’Oural » dans le nord de la Caspienne. Mais il s’agit d’une zone importante pour la reproduction des phoques, leur migration et leur alimentation, et ce sera une zone vitale pour l’adaptation des écosystèmes à mesure que la mer se retire.
Comme le rythme du changement est si rapide, les aires protégées aux frontières fixes risquent de devenir obsolètes. Ce qu’il faut, c’est une approche intégrée et prospective pour établir un plan à l’échelle de toute la région. Si les zones où les écosystèmes devront s’adapter au changement climatique sont cartographiées et protégées dès maintenant, les planificateurs et décideurs politiques seront mieux à même de faire en sorte que les projets d’infrastructures évitent ou minimisent de nouveaux dommages.
Pour ce faire, les pays de la Caspienne devront investir dans le suivi de la biodiversité et dans l’expertise en matière de planification, tout en coordonnant leurs actions entre cinq pays différents aux priorités diverses. Les pays de la Caspienne reconnaissent déjà les risques existentiels et ont commencé à conclure des accords intergouvernementaux pour faire face à la crise. Mais le rythme du déclin pourrait dépasser celui de la coopération politique.
L’importance écologique, climatique et géopolitique de la mer Caspienne fait que son sort dépasse largement ses rivages en recul. Elle constitue une étude de cas essentielle sur la manière dont le changement climatique transforme les grandes étendues d’eau intérieures à travers le monde, du lac Titicaca (entre le Pérou et la Bolivie) au lac Tchad (à la frontière entre le Niger, le Nigeria, le Cameroun et le Tchad). La question est de savoir si les gouvernements pourront agir assez vite pour protéger à la fois les populations et la nature de cette mer en mutation rapide.
Simon Goodman a conseillé le Programme des Nations unies pour l’environnement (PNUE) sur la conservation du phoque de la Caspienne et a par le passé mené des recherches et conseillé des entreprises pétrolières et gazières de la région sur la façon de réduire leur impact sur ces animaux. Ses travaux récents n’ont pas été financés par l’industrie ni liés à elle. Il est coprésident du groupe de spécialistes des pinnipèdes de l’Union internationale pour la conservation de la nature (UICN).
17.09.2025 à 16:24
Romain Busnel, Chargé de recherche en sciences sociales du politique, Centre national de la recherche scientifique (CNRS)
Le 5 août dernier, Luis García Villagrán, défenseur des personnes migrantes, a été arrêté à la frontière sud du Mexique. En marge des pressions diplomatiques états-uniennes, cette criminalisation du militantisme réactive les débats en cours autour de la définition des catégories du militant et du « passeur », de l’accompagnement humanitaire et du « trafic d’êtres d’humains ».
En juin 2025, Luis García Villagrán, 63 ans, avocat formé au droit en prison (il y a passé douze ans, de 1998 à 2000, à la suite d’un imbroglio judiciaire pour lequel il a finalement été innocenté), avait repris sa casquette d’activiste dans la ville de Tapachula (Chiapas, sud du Mexique, à une vingtaine de kilomètres du Guatemala) pour dénoncer les manquements des autorités mexicaines compétentes en matière migratoire. Il les accusait d’être corrompues et de freiner l’octroi de visas aux milliers de personnes bloquées dans cette ville de 350 000 habitants, désireuses de s’installer au Mexique ou, plus souvent, de traverser son territoire afin de rejoindre les États-Unis.
Face à l’absence de solutions, il a organisé une caravane. Ce mode d’action consiste à se déplacer vers le Nord à plusieurs centaines ou milliers de sans-papiers pour faire pression sur les autorités et se protéger des exactions aussi bien des forces de l’ordre que des groupes criminels.
Le 6 août 2025, cette première caravane de plus de 500 personnes depuis la prise de fonctions de Donald Trump est finalement partie sans le militant, arrêté la veille par les forces de l’ordre mexicaines et conduit au bureau du procureur fédéral (Fiscalía General de la República). Le lendemain, la présidente de la République Claudia Sheinbaum a justifié sa mise en détention :
« Ce n’est pas un militant. Il faisait l’objet d’un mandat d’arrêt et il est accusé de trafic d’êtres humains. »
Organisations de la société civile et universitaires mexicains se sont immédiatement alarmés de cette stigmatisation et de la violation de la présomption d’innocence de la part de la plus haute autorité du pays. Le 11 août, un juge fédéral a finalement ordonné la libération de l’activiste dans l’attente d’une enquête approfondie, faute de preuves solides. Le lendemain, le procureur fédéral a réagi en dénonçant la supposée mansuétude du juge à l’égard de Villagrán : « Quand on a fait comparaître cette personne devant le juge, celui-ci n’a pas même pas voulu analyser les 75 preuves que les autorités lui avaient présentées. […] Je n’ai jamais vu ça. »
Cette intromission des plus hautes sphères fédérales dans le cas d’un défenseur des droits des personnes migrantes a de quoi surprendre dans ce pays gouverné par la gauche depuis 2018 (année de la victoire d’Andrés Manuel López Obrador, à qui Claudia Sheinbaum a succédé en 2024).
Ces événements s’inscrivent dans le cadre d’une externalisation des frontières états-uniennes au Mexique, caractérisée par des politiques de mise en attente des personnes migrantes. Si la frontière du Mexique avec les États-Unis accapare une large part de l’attention médiatique, les dynamiques de la frontière Sud, en bordure du Guatemala, restent peu documentées.
Au cours des années 2010, cette zone de passage obligé pour les personnes désireuses de rejoindre les États-Unis a fait l’objet de politiques dites d’« endiguement migratoire » visant à ralentir les flux de personnes migrantes issues d’Amérique centrale (Honduras, Guatemala, Nicaragua, Salvador), des Caraïbes (Haïti, Cuba), d’Amérique du Sud (Venezuela, Équateur) mais aussi d’autres continents (Afrique, Moyen-Orient et Asie).
Face à la massification et à la diversification des mobilités internationales dans cette région, les politiques migratoires mexicaines sont progressivement devenues une marge d’ajustement des relations diplomatiques avec les États-Unis, notamment dans le contexte actuel de renégociation des droits de douane.
Déjà, en 2019, le gouvernement d’Andrés Manuel López Obrador avait négocié le maintien de droits de douane avantageux en échange de l’envoi à la frontière Sud du Mexique de la Garde nationale, un nouveau corps de police militarisée.
Les multiples contrôles sur les routes, ainsi que les pratiques d’allongement des délais d’obtention de papiers permettant de transiter légalement au Mexique ont fait de Tapachula une « prison à ciel ouvert », où plusieurs dizaines de milliers de personnes exilées restent bloquées dans l’attente d’une régularisation.
Cette situation encourage les versements de pots-de-vin aux agents de l’Institut national des migrations (INM) – déjà dénoncés par un ancien directeur de cette institution –, mais aussi la présence de réseaux de passeurs illicites, parfois en lien avec des groupes criminels.
En réponse à cette mise en attente dans le Chiapas, État le plus pauvre du Mexique, un nouveau mode d’action collective et migratoire a émergé dans les années 2010. Certains religieux et activistes issus d’organisations de défense du droit à la migration ont commencé à accompagner des groupes de personnes migrantes dans leur périple, pour les protéger en les rendant plus visibles.
C’est ainsi qu’ont émergé en 2018 des caravanes de plusieurs milliers de personnes sur les routes d’Amérique centrale et du sud du Mexique. À cette époque, leur importante médiatisation avait déclenché des réactions virulentes du président états-unien Donald Trump.
Depuis, ce type d’actions n’a pas cessé. Tous les ans, plusieurs caravanes partent de Tapachula. Luis García Villagrán a participé activement à plusieurs d’entre elles. Cela lui vaut, comme à d’autres, une stigmatisation régulière de la part de personnalités politiques (de droite comme de gauche, à l’instar de la présidente Sheinbaum) qui entretiennent l’amalgame entre « militant » et « passeur » (coyote ou pollero au Mexique), entre « accompagnement » et « trafic d’êtres humains ».
La poursuite en justice d’activistes s’inscrit en prolongement d’une répression de longue date par l’État mexicain du militantisme politique. Elle déborde aujourd’hui sur l’enjeu migratoire, un sujet sensible au niveau diplomatique, mais aussi au niveau national dans la mesure où les personnes migrantes sont des cibles facilement exploitables pour les groupes criminels.
Déjà en 2019, plusieurs activistes mexicains présents pour accompagner les caravanes avaient fait l’objet d’intimidations, d’arrestations et de menaces. Certains ont même été physiquement violentés lors des interrogatoires.
La répression se fait aussi à bas bruit, par des acteurs pas toujours bien identifiés. Les militants reçoivent souvent des menaces provenant de numéros inconnus sur leurs téléphones. Il arrive aussi que celles-ci soient mises à exécution, par exemple lorsque Luis García Villagrán s’est fait passer à tabac par un groupe armé en octobre 2023, peu après avoir annoncé vouloir accompagner une caravane organisée par un autre activiste.
La criminalisation du militantisme en soutien aux sans-papiers n’est pas sans rappeler des processus observés en Europe. Mais si les activistes disposent de relais médiatiques pour se défendre des accusations, les personnes migrantes restent celles qui pâtissent en premier de la répression.
Par le suivi de caravanes, mes recherches de terrain ont montré que la privation des soutiens sur le trajet expose les personnes migrantes aux exactions de groupes criminels ou des autorités policières. En outre, les personnes exilées qui s’impliquent dans l’organisation quotidienne pour négocier avec les autorités, assurer la logistique des repas ou prendre des décisions paient parfois cher cet engagement. Identifiées comme les moteurs de la mobilisation par les autorités mexicaines, beaucoup sont arrêtées dans une quasi-indifférence générale, et sont ensuite privées de visas d’entrée aux États-Unis et au Mexique.
Au Mexique, comme ailleurs, la criminalisation de tout acte de solidarité s’inscrit dans la construction d’un régime de mobilité restrictif. Aide aux personnes migrantes par leurs soutiens ou entraide entre personnes migrantes sont susceptibles d’être réprimées au nom d’un amalgame fallacieux entre accompagnement humanitaire et « trafic d’êtres humains », ou défenseur des personnes migrantes et « passeur ». Ces processus visent aussi à créer une démarcation entre, d’une part, les « bonnes » organisations de soutien financées par l’aide internationale qui assistent les exilés dans les lieux d’attente et, d’autre part, les « mauvaises » qui les accompagnent sur les routes ou qui protestent contre le sort qui leur est réservé.
C’est pourtant bien ce nouveau paradigme qui contribue à rendre les routes de l’exil beaucoup plus dangereuses pour les personnes qui les empruntent, mais aussi pour celles qui y vivent.
Romain Busnel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 13:36
Jean-Yves Marion, Professeur d'informatique, Université de Lorraine
Vous avez peut-être déjà été victime d’un virus informatique. Le terme date de 1984 et on le doit à Fred Cohen, un chercheur américain. Pourtant, la notion de virus est intrinsèquement liée à celle même de l’informatique, dès ses origines, avec les travaux d’Alan Turing dans les années 1930 et, par la suite, avec les programmes autoréplicants. Aujourd’hui, ce terme n’est plus vraiment utilisé, on parlera plutôt de logiciels malveillants. Jean-Yves Marion est responsable du projet DefMal du programme de recherche PEPR France 2030 Cybersécurité qui porte sur la lutte contre ce qu’on appelle aussi les « malwares ».
Il répond aux questions de Benoît Tonson, chef de rubrique Sciences et technologies à « The Conversation France », pour nous faire pénétrer les secrets des cybercriminels et comprendre comment ils arrivent à pénétrer des systèmes informatiques et à escroquer leurs victimes.
The Conversation : Comment vous êtes-vous intéressé au monde des logiciels malveillants ?
Jean-Yves Marion : J’ai fait une thèse à l’Université Paris 7 en 1992 (aujourd’hui, Paris Cité) sur un sujet d’informatique fondamental de logique et de complexité algorithmique. C’était assez éloigné de la cybersécurité, ce qui m’intéressait quand j’étais jeune, c’était de comprendre les limites de ce qui est calculable par ordinateur quand les ressources sont bornées.
Plus tard, on pourrait dire que j’ai fait une « crise de la quarantaine » mais version chercheur. J’ai eu envie de changement et de sujets plus appliqués, plus en prise avec les enjeux de société. J’avais besoin de sortir de la théorie pure. J’ai passé ce cap en 2004. Et j’ai commencé à m’intéresser à ce que l’on appelait, encore à l’époque, les virus ; en gros, des programmes capables de se reproduire, de se dupliquer. Dans le mot « virus », il y a toujours eu le côté malveillant, mais ce qui m’intéressait, c’était le côté théorique de la reproduction de programme.
Finalement, je me suis passionné pour le sujet. J’étais déjà au Loria (Laboratoire lorrain de recherche en informatique et ses applications) que j’ai dirigé à partir de 2012 pendant onze ans. J’ai commencé à étudier les virus et à travailler avec de vrais programmes malveillants. D’ailleurs, la direction du laboratoire de l’époque s’était inquiétée, je pense à juste titre, de nos activités. Elle avait peur qu’à force d’exécuter des programmes malveillants sur nos ordinateurs pour comprendre comment ils fonctionnaient, ils puissent passer sur le réseau national de télécommunications pour la technologie, l’enseignement et la recherche (Renater) et qu’on soit bannis de la recherche publique à vie ! J’exagère, bien sûr, mais on a tout de même eu l’idée de construire une plateforme de recherche qu’on appelle maintenant le laboratoire de haute sécurité (LHS) et qui est un lieu qui se trouve au sous-sol de notre bâtiment. Il permet d’analyser les virus en toute sécurité, car il a son propre réseau qui n’est connecté à aucun autre. Les travaux ont continué et ont pris petit à petit de l’ampleur, notamment en termes de financement de la recherche.
Aujourd’hui on n’utilise plus le terme de « virus », on parle plutôt de programmes « malveillants » (malware en anglais). On va également parler de « rançongiciels », d’infostealers (« voleurs d’information »), des logiciels créés dans le but de pénétrer les systèmes d’information et d’y voler des informations sensibles ; de « bots espions »… Il existe également des stalkerwares, des logiciels installés sur un smartphone par exemple, qui permettent de suivre l’activité de ce dernier et suivre à la trace les déplacements d’une personne.
Parlons plus en détail des « rançongiciels » : qu’est-ce que c’est ?
J.-Y. M. : Un « rançongiciel », c’est un programme malveillant qui va s’infiltrer à l’insu de la victime et dont l’objectif est soit d’exfiltrer des données, soit de les chiffrer de manière à demander une rançon, soit de faire les deux. On parle souvent des attaques avec chiffrement de données, car elles peuvent bloquer une organisation entière et empêcher le travail d’une entreprise ou d’une organisation publique. Il ne faut pas pour autant négliger la simple, si je peux dire, exfiltration qui est également beaucoup utilisée avec un levier de pression et un discours assez simple de la part de l’attaquant : « On a des informations personnelles, si tu ne payes pas, on divulgue. » La victime peut être une personne ou une entreprise ou un organisme comme un hôpital, une université, une administration, par exemple.
Les cibles sont donc multiples…
J.-Y. M. : Je pense que le premier élément à bien comprendre, c’est que la plupart des attaques sont extrêmement opportunistes, cela signifie que tout le monde est potentiellement une cible.
Les grosses entreprises peuvent être particulièrement visées parce que l’on peut espérer extorquer des rançons beaucoup plus grosses et gagner beaucoup plus d’argent que si l’on s’attaquait à une PME. C’est plus difficile et également plus risqué dans le sens où la police va très probablement intervenir.
L’exemple d’école, c’est l’attaque, en 2021, sur l’entreprise américaine Colonial Pipeline qui opère un réseau d’oléoducs à partir du Texas vers le sud-est des États-Unis. Il s’agissait de la plus grande cyberattaque contre une infrastructure pétrolière de l’histoire des États-Unis menée par le groupe DarkSide. L’entreprise avait payé une rançon de 75 bitcoins, soit à l'époque environ 4 millions de dollars. Somme en partie retrouvée par les autorités américaines. DarkSide a ensuite déclaré cesser toutes ses opérations sous les pressions américaines.
Plus généralement, les cibles dépendent des politiques des groupes de cybercriminels : certains vont se spécialiser dans des cibles visibles à gros revenus et d’autres vont plutôt attaquer des « petits poissons » à petit revenu.
Vous parlez de groupes, or, dans l’imaginaire collectif, le pirate informatique est plutôt seul dans sa cave, qu’en est-il dans la réalité ?
J.-Y. M. : C’est rarement une personne seule qui va mener une attaque. En général, ce sont des groupes. C’est un modèle que la police appelle « ransomware as a service ». Ces groupes offrent un service clé en main pour mener une attaque par rançongiciel. On parle plus généralement de « malware as a service » voire de « crime as a service ».
Il ne faut pas imaginer une organisation qui ressemblerait à une entreprise classique. Ce sont des groupes assez diffus, dont les membres ne se connaissent pas forcément de manière physique et qui vont offrir différents services qui peuvent être séparés :
uniquement l’accès initial à un ordinateur spécifique ;
acheter un rançongiciel ;
avoir un accès à des services de négociation qui vont faciliter la négociation de la rançon.
Il est également possible de s’offrir des services de stockage de données, car si une attaque a pour but d’exfiltrer de grosses quantités de données, il faut pouvoir les stocker et montrer à sa cible qu’on a réellement ces données. À ce propos, certains groupes utilisent ce qu’ils appellent des « murs de la honte » où ils vont afficher sur des sites des informations confidentielles d’une entreprise, par exemple, sur le dark web.
En bas de l’échelle, on trouve ce que l’on appelle des « affiliés », ce sont les petites mains. On parle même d’« ubérisation de la cybercriminalité ». Ce sont eux qui vont lancer les attaques en utilisant les services du groupe. Si l’attaque réussit et que la cible paye, la rançon est partagée entre le groupe et les affiliés.
Si on va à l’autre bout de l’échelle, on connaît quelques leaders comme celui de Conti, un groupe de pirates basé en Russie. Ce dernier est connu sous les pseudonymes de Stern ou Demon, et agit comme un PDG. Des travaux universitaires ont même montré son modèle de management. Il semble qu’il fasse du micromanagement, où il tente de régler tous les problèmes entre ses « employés » et de contrôler toutes les tâches qu’ils effectuent sans très grande anticipation.
Maintenant que l’on connaît mieux l’écosystème criminel, expliquez-nous comment, techniquement, on peut entrer dans un système ?
J.-Y. M. : On peut diviser ça en grandes étapes.
La première, c’est la plus diffuse, c’est la reconnaissance de la cible. Essayer d’avoir la meilleure connaissance possible des victimes potentielles, tenter de savoir s’il y a des vulnérabilités, donc des endroits où l’on pourrait attaquer. Un autre aspect est de bien connaître les revenus de la cible pour, in fine, adapter la rançon.
Une fois ce travail réalisé, il faut réussir à obtenir un premier accès dans le réseau. C’est souvent la partie la plus complexe et elle est faite, généralement par une personne physique derrière son ordinateur. Pas besoin d’être nombreux pour cette étape. Ce qui fonctionne le mieux, c’est l’ingénierie sociale. On va chercher à manipuler une personne pour obtenir une information en exploitant sa confiance, son ignorance ou sa crédulité.
Prenons un exemple, avec votre cas, imaginons que l’on cherche à infiltrer le réseau de The Conversation et que l’attaquant vous connaisse. Il sait que vous êtes journaliste scientifique et toujours à l’affût d’un bon sujet à traiter. Il va donc vous envoyer un mail qui va vous dire : « Regardez, je viens de publier un excellent article scientifique dans une grande revue, je pense que cela ferait un très bon sujet pour votre média, cliquez ici pour en prendre connaissance. »
À ce moment-là, vous cliquez et vous arrivez sur un site qu’il contrôle et qui va vous forcer à télécharger un logiciel malveillant. Ce type de technique peut fonctionner sur énormément de personnes à condition de connaître le bon moyen de pression.
Dans le cas que l’on vient de prendre, il s’agissait d’une attaque bien ciblée. On peut aussi prendre le cas inverse et envoyer un très grand nombre d’emails sans ciblage.
Le cas classique est ce mail, que vous avez peut-être déjà reçu, venant soi-disant de la police et qui vous indique que vous avez commis une infraction et que vous devez payer une amende. Le gros problème, c’est que c’est devenu plus facile de rédiger des mails sans faute d’orthographe ni de grammaire grâce aux outils d’IA. Détecter le vrai du faux est de plus en plus complexe.
Donc la meilleure manière est de s’attaquer à un humain ?
J.-Y. M. : Oui, ça marche bien, mais il y a d’autres manières d’attaquer. L’autre grand vecteur, c’est ce qu’on appelle les vulnérabilités : tous les bugs, donc les erreurs, que vont faire une application ou un système d’exploitation. On peut exploiter les bugs de Windows mais aussi les bugs d’applications comme Firefox, Safari ou Chrome. Trouver une vulnérabilité, c’est vraiment le Graal pour un attaquant parce que cela va être relativement silencieux, personne ne peut s’en rendre compte tout de suite. À la différence d’une personne piégée qui pourrait se rendre compte de la supercherie.
Concrètement, une vulnérabilité qu’est-ce que c’est et comment l’exploiter ?
J.-Y. M. : Une vulnérabilité, c’est un bug – je pense que tout le monde en a entendu parler. Un bug, c’est quand une application va faire une erreur ou avoir un comportement anormal.
Alors, comment ça marche ? L’idée est que l’attaquant va envoyer une donnée à un programme. Et, à cause de cette donnée, le programme va commettre une erreur. Il va interpréter cette donnée comme une donnée à exécuter. Et là, évidemment, l’attaquant contrôle ce qui est exécuté. L’exploitation de vulnérabilité est une illustration de la dualité donnée/programme qui est constitutive et au cœur de l’informatique, dès ses origines.
J’aimerais également citer une autre grande manière d’attaquer : une « attaque supply chain », en français « attaque de la chaîne d’approvisionnement , appelée aussi « attaque de tiers ». C’est une attaque absolument redoutable. Pour comprendre, il faut savoir que les programmes, aujourd’hui, sont extrêmement complexes. Une application d’une entreprise particulière va utiliser beaucoup de programmes tiers. Donc il est possible de réaliser des attaques indirectes.
Je reprends votre cas, imaginons que quelqu’un qui vous connaisse cherche à vous attaquer, il sait que vous êtes journaliste, il se dit que vous utilisez probablement Word, il peut donc étudier les dépendances de cette application à d’autres programmes et voir si ces derniers ont des failles. S’il arrive à installer une backdoor (une porte dérobée est une fonctionnalité inconnue de l’utilisateur légitime, qui donne un accès secret au logiciel) chez un fournisseur de Word pour y installer un logiciel malveillant, alors, à la prochaine mise à jour que vous allez effectuer, ce dernier arrivera dans votre logiciel et, donc, dans votre ordinateur.
La grande attaque de ce type que l’on peut donner en exemple est celle menée par Clop, un groupe russophone qui s’est attaqué à MoveIt, un logiciel de transfert de fichiers sécurisé. Ils ont compromis ce logiciel-là directement chez le fournisseur. Donc tous les clients, quand ils ont mis à jour leur logiciel, ont téléchargé les malwares. Il y a eu des dizaines de millions de victimes dans cette affaire. Si des criminels réussissent un coup pareil, c’est le véritable jackpot, ils peuvent partir vivre aux Bahamas… ou en prison.
Et une fois que l’attaquant est entré dans un ordinateur, que fait-il ?
J.-Y. M. : Une fois que l’on est dedans, on passe au début de l’attaque. On va essayer de ne pas être visible, donc de désactiver les systèmes de défense et de multiplier les backdoors, les points d’accès. Car, si l’un est repéré, on pourra en utiliser un autre. Typiquement, si un attaquant a piraté votre ordinateur, il peut créer un nouvel utilisateur. Il va ensuite créer une connexion sécurisée entre son ordinateur et le vôtre. Il a accès à l’ordinateur, et peut donc y installer les logiciels qu’il veut.
Ensuite, il va explorer et voir, si votre machine est connectée à un réseau d’entreprise et donc s’il peut se déployer et aller chercher des informations sensibles par exemple. Cela peut être la liste de tous vos clients, des résultats financiers, des documents de travail, dans le but de faire de l’exfiltration. S’il peut se déployer, l’attaque devient globale. Ici, on parle vraiment d’une personne qui explore le réseau en toute discrétion pendant des jours, des semaines voire des mois. Les données sont exfiltrées au compte-gouttes, car les systèmes de défense sont capables de détecter de gros flux de données et de comprendre qu’il y a une attaque.
Si l’idée du cybercriminel est plutôt de faire une attaque par chiffrement, qui va empêcher l’entreprise d’accéder à ses données, il doit éliminer les sauvegardes. Une fois que c’est fait, le chiffrement de toutes les données peut être lancé et la demande de rançon va être envoyée.
Et que se passe-t-il après cette demande ?
J.-Y. M. : Le groupe va contacter la cible en lui expliquant qu’il vient d’être attaqué et va lui demander de se connecter à un portefeuille numérique (wallet) pour payer ce qu’on lui demande, en général, en bitcoins. Souvent, à ce moment-là, une négociation va démarrer. Une hotline est, parfois, mise en place par les pirates pour communiquer. Les groupes organisés ont des services voués à cette opération.
L’attaquant tente de vendre la clé de déchiffrement – c’est la rançon –, ou bien menace de diffuser des données volées. Il y a d’ailleurs énormément de transcriptions d’échanges en ligne.
D’après les recherches que j’ai pu effectuer, il y aurait environ 60 % des gens qui paient, mais c’est très compliqué d’avoir les vrais chiffres.
La première chose à faire est de déclarer à la gendarmerie ou à la police la cyberattaque subie. En parallèle, il y a aujourd’hui dans chaque région des centres qui ont été mis en place d’aide aux victimes. Ainsi, il y a des choses à faire au moment de la négociation : demander au pirate de décrypter une partie des données, juste pour montrer qu’il est capable de le faire, parce qu’on a déjà vu des cas où les attaquants ne sont pas, disons, très professionnels et ils sont incapables de déchiffrer les données.
Il faut également s’assurer que si l’attaquant s’est servi d’une backdoor, il n’en a pas laissé une autre pour une future attaque. Cela s’est déjà vu et c’est au service informatique, lorsqu’il va tout réinstaller, de vérifier cela. Ensuite, si des données ont été exfiltrées, vous ne pouvez jamais savoir ce que va en faire l’attaquant. Les mots de passe qui sont exfiltrés peuvent être utilisés pour commettre une nouvelle cyberattaque, vous pouvez faire confiance à un cybercriminel pour cela. Personnellement, j’ai lu suffisamment de livres policiers pour ne pas avoir envie de faire confiance à un bandit.
On a finalement vu toute la chaîne de l’attaque, mais quel est votre rôle en tant qu’universitaire et responsable du projet DefMal du PEPR cybersécurité dans cet écosystème ?
J.-Y. M. : Il y a deux volets qui ont l’air d’être séparés, mais vous allez vite comprendre qu’ils s’articulent très facilement.
Il y a un volet que l’on pourrait qualifier de très informatique, qui consiste à construire des défenses : des systèmes de rétro-ingénierie et de détection. L’objectif est, par exemple, de déterminer si un programme est potentiellement malveillant.
Plusieurs approches sont explorées. L’une d’elles consiste à utiliser des méthodes d’apprentissage à partir d’exemples de malware et de goodware. Cela suppose d’être capable d’extraire, à partir du binaire, des caractéristiques précisant la sémantique du programme analysé. Pour cela, nous combinons des approches mêlant méthodes formelles, heuristiques et analyses dynamiques dans un sandbox (bac à sable, un environnement de test).
Une difficulté majeure est que les programmes sont protégés contre ces analyses par des techniques d’obfuscation qui visent à rendre leur fonctionnement délibérément difficile à comprendre.
L’un des enjeux scientifiques est donc de pouvoir dire ce que fait un programme, autrement dit, d’en retrouver la sémantique. Les questions soulevées par la défense contre les logiciels malveillants – par exemple, expliquer le comportement d’un programme – exigent une recherche fondamentale pour obtenir de réels progrès.
Au passage, on a un petit volet offensif. C’est-à-dire qu’on essaie aussi de construire des attaques, ce qui me paraît important parce que je pense qu’on ne peut bien concevoir une défense qu’à condition de savoir mener une attaque. Ces attaques nous servent également à évaluer les défenses.
Pour vous donner un exemple, je peux vous parler d’un travail en cours. C’est un système qui prend un programme normal, tout à fait bénin, et qui prend un programme malveillant, et qui va transformer le programme malveillant pour le faire ressembler au programme bénin ciblé afin de lui faire passer les défenses qui s’appuient sur l’IA.
J’ai donc parlé de la partie informatique, mais il y aussi tout le volet sur l’étude de l’écosystème actuel qui m’intéresse particulièrement, qui est un travail passionnant et interdisciplinaire. Comment les groupes sont-ils organisés, quel est le système économique, comment les groupes font-ils pour blanchir l’argent, quel type de management ? Une autre grande question que l’on se pose, c’est celle de savoir comment les cybercriminels vont s’approprier l’IA. Comment anticiper les prochains modes opératoires ?
On va aussi aller explorer le dark web pour récupérer des discussions entre criminels pour mieux comprendre leurs interactions.
Vous arrive-t-il d’aider la police sur des enquêtes en particulier ?
J.-Y. M. : On ne nous sollicite jamais sur des attaques concrètes. Une enquête doit être faite dans un cadre légal très strict.
Nous entretenons de bonnes relations avec tout l’environnement de lutte contre les cybercriminels (police, gendarmerie, armée, justice…). Ils suivent nos travaux, peuvent nous poser des questions scientifiques. On a des intérêts communs puisqu’une partie de nos travaux de recherche, c’est de comprendre l’écosystème de la cybercriminalité.
Je vous donne un exemple : sur le dark web, un forum qui permettait d’échanger des logiciels malveillants a été bloqué. Nous en tant que chercheurs, on va essayer de comprendre l’impact réel de cette action, car, d’ici plusieurs mois, il y aura sans doute un nouveau forum. Les relations entre les groupes cybercriminels et les services de certains États font partie aussi de nos questions actuelles.
Une autre question scientifique à laquelle on peut répondre, c’est lorsque l’on découvre un nouveau logiciel, savoir à quoi on peut le comparer, à quelle famille. Cela ne nous donnera pas le nom du développeur mais on pourra le rapprocher de tel ou tel groupe.
On commence également à travailler sur le blanchiment d’argent.
Pour aller plus loin, vous pouvez lire l’article de Jean-Yves Marion, « Ransomware : Extortion Is My Business », publié dans la revue Communications of the ACM.
Jean-Yves Marion a reçu des financements de l'ANR et de l'Europe. Il travaille détient des parts dans CyberDetect et Cyber4care.
17.09.2025 à 12:42
Elisa Cliquet Moreno, Chef de projet réutilisation, Centre national d’études spatiales (CNES)
Une nouvelle course à l’espace est en cours. Depuis 2013, Space-X, le principal concurrent d’Ariane, est capable de récupérer et réutiliser le premier étage de sa fusée Falcon 9 et travaille à rendre sa super fusée Starship entièrement réutilisable.
De nombreux acteurs cherchent à acquérir cette technologie, qui permet de réduire les coûts et d’améliorer la versatilité et la flexibilité d’un système de lancement. En effet, alors qu’un lanceur (ou fusée) est constitué de plusieurs étages, le premier étage — le plus puissant pour lutter contre la gravité et la traînée aérodynamique — est aussi le plus cher. Le récupérer et le remettre en état peut être moins cher que d’en fabriquer un neuf à chaque lancement.
La réutilisation est un indéniable atout de compétitivité à l’heure où la concurrence mondiale augmente dans le domaine des lanceurs.
Le CNES (Centre national d’études spatiales) a, depuis 2015, mis en place une feuille de route articulée autour de plusieurs prototypes de démonstration. Ceux-ci visent à maîtriser les différentes briques technologiques et les nouvelles « phases de vie » des lanceurs liées à la réutilisation : il faut pouvoir guider la phase de retour, atterrir verticalement, puis « remettre en sécurité » l’étage récupéré avec des robots, c’est-à-dire vidanger les fluides sous pression qu’il contient encore pour permettre l’accès à des opérateurs dans des conditions de sécurité optimales.
Après des essais au sol réussis en France en 2024, c’est un prototype d’étage à bas coût et réutilisable qui a rejoint au début de cet été son pas de tir à Kiruna, en Suède.
La première brique fondamentale est de disposer d’un moteur réallumable et dont la poussée peut s’adapter en cours du vol pour permettre à la fois un décollage « à fond », pour faire décoller le lanceur plein, mais également permettre un atterrissage tout en douceur du premier étage quasiment vide : il faut pour cela un moteur capable de fonctionner sur une large plage de poussée.
À lire aussi : Ariane 6 et les nouveaux lanceurs spatiaux, ou comment fabriquer une fusée aujourd'hui
Le démonstrateur (ou prototype) Prometheus® a donc naturellement fait l’objet de la première démonstration, initiée sous l’impulsion du CNES dès 2015. Fonctionnant à l’oxygène liquide et au biométhane liquide (plus propre et mieux adapté à la réutilisation que le kérosène ou l’hydrogène), capable de fournir une poussée allant de 30 à 110 % de son point de fonctionnement de référence à 1000 kilonewtons, il est le précurseur d’une nouvelle génération de moteurs réutilisables à bas coût. Grâce à l’impression 3D, il est composé de 50 % de pièce en moins qu’un moteur conventionnel. Le but est que Prometheus® soit réutilisable au minimum 5 fois (le nombre de réutilisations pour assurer l’intérêt économique de la récupération est une variable qui dépend de chaque système de lancement).
Testé avec succès courant 2024 chez ArianeGroup à Vernon, dans l’Eure, le premier exemplaire de Prometheus® a été monté sur le premier prototype européen d’étage réutilisable à oxygène et méthane liquides, Thémis T1H.
Ce démonstrateur n’est pas un lanceur complet mais juste un premier étage. Il a quitté le site d’ArianeGroup en France le 12 juin dernier pour rejoindre le pas de tir suédois. Là, Thémis T1H doit d’abord subir des essais combinés avec ses robots de remise en sécurité avant de réaliser un « hop » de quelques dizaines de mètres.
T1H, qui mesure plus de 30 mètres de haut pour environ 30 tonnes, va permettre de valider les grands principes des opérations liées à la réutilisation à une échelle représentative d’un petit lanceur. Seront en particulier scrutées les phases d’atterrissage et de remise en sécurité.
Un autre prototype Thémis, plus ambitieux, est en cours d’étude.
Le démonstrateur CALLISTO, fruit d’une coopération entre le CNES, les agences spatiales japonaise JAXA et allemande DLR, marque un saut en complexité.
Ce démonstrateur de 13 mètres de haut, tout juste plus d’un mètre de diamètre et environ 4 tonnes au décollage, malgré son échelle réduite, porte toutes les fonctions et la complexité d’un futur premier étage de lanceur réutilisable. Pour illustrer les défis technologiques à relever avec CALLISTO, citons par exemple la manœuvre de « retournement » parmi tant d’autres : après une phase de montée comme une fusée normale, l’étage doit rapidement changer d’orientation pour revenir vers son pas de tir ce qui « secoue » les ergols dans les réservoirs au point que, sans précaution particulière, le liquide se déplace, se mélange avec le gaz, se réchauffe, et pourrait ne plus alimenter le moteur qui doit pourtant être rallumé ensuite pour freiner l’étage.
CALLISTO est conçu pour voler dix fois, être capable de monter à plus de dix kilomètres d’altitude et effectuer une manœuvre complexe lui permettant de se retourner rapidement vers son pas d’atterrissage, situé juste à côté de son pas de tir sur l’Ensemble de Lancement Multi-Lanceurs (ELM — Diamant) au Centre Spatial Guyanais, à Kourou. Les vols de CALLISTO permettront ainsi de valider de nouveaux algorithmes pour le GNC (Guidage Navigation Pilotage), une autre brique cruciale pour la réutilisation.
De nombreux éléments de CALLISTO sont déjà fabriqués et en cours d’essai, notamment les pieds, certaines structures clés, et des équipements avioniques. Les trois partenaires du programme contribuent de manière égalitaire à sa réalisation : la JAXA fournit par exemple le moteur, le DLR les pieds, et le CNES réalise les études système et le segment sol.
Des essais à feu de l’ensemble propulsif sont prévus mi-2026 au centre d’essai de Noshiro au Japon avant l’envoi de CALLISTO au Centre Spatial Guyanais pour ses premiers essais au second semestre 2026.
Les vols de CALLISTO, qui commenceront par des petits « sauts » (hops) à basse altitude seront de plus en plus ambitieux : ils culmineront à plus de dix kilomètres d’altitude et franchiront Mach 1.
La dernière étape de la feuille de route consistera à démontrer la récupération puis un second vol de l’étage récupéré, directement sur un mini lanceur opérationnel, lors d’un de ses vols commerciaux. C’est ArianeGroup & MaiaSpace qui ont été retenus pour mener à bien ce projet, baptisé Skyhopper, qui sera testé en Guyane.
Une fois la mission principale du premier étage achevée, celui-ci sera séparé du deuxième étage à une altitude d’environ 50 kilomètres : il effectuera alors une manœuvre de ré-orientation, déploiera ses gouvernes aérodynamiques, rallumera ses moteurs pour un boost de freinage.
S’en suivra une phase planée, pendant laquelle l’étage sera dirigé grâce à ses gouvernes aérodynamiques, puis un dernier rallumage du moteur, le déploiement des pieds et enfin l’atterrissage vertical sur une barge maritime située à quelques centaines de kilomètres des côtes guyanaises.
L’étage sera alors stabilisé et remis en sécurité de façon autonome par des robots puis la barge sera tractée jusqu’au port de Pariacabo en Guyane. Une fois inspecté et remis en état, cet étage sera assemblé sur un autre lanceur qui décollera pour une nouvelle mission vers l’orbite achevant ainsi la démonstration avant la fin de la décennie.
À lire aussi : Adieu Ariane 5 ! Retour sur ses plus belles missions
Cette feuille de route, qui s’appuie à la fois sur des programmes de l’Agence Spatiale Européenne (ESA) (Prometheus® et Thémis ont été initié par le CNES puis sont entrés dans le périmètre du « Future Launcher Preparatory Programme » de l’ESA respectivement en 2016 et 2019) et des programmes nationaux (Skyhopper) ou dans une coopération multilatérale (CALLISTO), a bénéficié également d’un solide support de multiples activités de Recherche et Technologies menées au niveau national, permettant de valider en amont et à petite échelle des concepts peu matures comme l’impression 3D permettant ensuite d’optimiser la conception et la fabrication du moteur Prometheus®.
La France et ses partenaires sont donc en ordre de bataille pour relever les défis de la réutilisation du premier étage d’un lanceur.
Elisa Cliquet Moreno est membre de l'Association Aéronautique et Astronautique de France (présidente de la commission transport spatial)
17.09.2025 à 12:42
Mathieu Beraneck, Directeur de Recherche CNRS en Neurosciences, Centre national de la recherche scientifique (CNRS), Université Paris Cité, George Washington University
Avec 15 à 30 % de la population concernée en France, les vertiges et les troubles de l’équilibre sont un enjeu de santé publique qui nécessite d’investir dans l’enseignement et dans la recherche.
Perdre l’équilibre, sentir le sol se dérober, avoir la tête qui tourne, percevoir l’environnement comme instable et mouvant… les troubles de l’équilibre et les vertiges sont très fréquents : ils concerneraient 1 million de patients chaque année en France, touchent entre 15 et 30 % de la population générale avec une prévalence de 85 % chez les personnes âgées de plus de 80 ans, et constituent une source de dépense importante pour les systèmes de santé, estimée à 2 ou 3 % en France par les spécialistes du CNRS.
Que se passe-t-il dans notre cerveau lorsque l’on vacille sans raison apparente, et que même se tenir debout semble si difficile ? Derrière ces sensations se cache un système aussi précis que méconnu : le système vestibulaire, et les organes de l’équilibre nichés dans l’oreille interne. Le cerveau, sans cesse en alerte, utilise ces sensations vestibulaires avec la vision et la proprioception — ces sensations du corps provenant des muscles, tendons, de la peau — pour maintenir l’équilibre et nous orienter dans l’espace, même dans des situations extrêmes : obscurité, transports, apesanteur.
Comment fonctionne le sens de l’équilibre, et surtout que se passe-t-il quand on est pris de vertiges ?
Apparus très tôt dans l’évolution, avant même la cochlée, le système vestibulaire est très conservé chez les vertébrés. Chez l’homme, ses organes sont au nombre de dix : cinq dans chaque oreille !
Trois canaux semi-circulaires détectent les rotations de la tête, alors que deux organes otolithiques détectent les accélérations linéaires et, un peu à la manière d’un fil à plomb, l’orientation par rapport à la gravité. Lorsque nous bougeons la tête, le mouvement stimule des cellules ciliées qui, comme les algues dans la mer, se déplacent conjointement en activant le nerf vestibulaire (nerf VIII, vestibulo-cochléaire), transformant ainsi un mouvement en influx nerveux.
Cette information rejoint le cerveau au niveau du tronc cérébral (qui rassemble de nombreuses fonctions essentielles à la survie, comme la régulation de la respiration, du rythme cardiaque, du sommeil). Les informations issues de l’oreille interne sont importantes pour l’équilibre, mais aussi pour d’autres fonctions réflexes comme la stabilisation du regard et de la posture, et des fonctions plus cognitives comme l’orientation et la perception de son corps dans l’espace, ou encore la navigation, et de manière générale pour la capacité à habiter son corps et à se situer dans un environnement physique, mais aussi social.
Les neurones vestibulaires du tronc cérébral fusionnent les informations vestibulaires à d’autres informations sensorielles visuelles et proprioceptives. Le sens de l’équilibre est donc en fait une fonction « multi-sensorielle » : il est bien plus difficile de tenir debout les yeux fermés, ou pieds nus sur un tapis en mousse. D’autres informations en provenance du cortex, du cervelet, de la moelle épinière viennent également moduler l’activité des neurones vestibulaires et participent donc à créer la sensation de l’équilibre.
Il est aussi intéressant de noter que l’équilibre est un sens « caché ». En effet, l’oreille interne ne crée pas de sensation consciente : on a conscience de voir, d’entendre, de sentir, mais on ne se sent pas en équilibre. L’équilibre est une fonction si essentielle que le cerveau la traite en tâche de fond, de manière réflexe, afin de nous permettre de vaquer à nos occupations sans devoir constamment penser à tenir debout. C’est seulement dans des situations instables que nous prenons conscience de la précarité de notre bipédie : nous avons en fait un sens inconscient de l’équilibre qui devient — si nécessaire — une perception consciente du déséquilibre !
À lire aussi : Proprioception et équilibre : notre « sixième sens » varie d’un individu à l’autre
Les vertiges apparaissent quand le cerveau reçoit des informations discordantes, et n’arrive plus à correctement déterminer si le corps est stable, en mouvement, ou si c’est l’environnement qui bouge.
Au repos, les deux vestibules envoient en permanence au tronc cérébral des signaux équilibrés. Lors de mouvements dans une direction, un côté voit son activité augmentée, et l’autre diminuée. Le cerveau déduit la rotation de cette activation différentielle. Lorsque, du fait d’une pathologie, les vertiges surviennent, les signaux des deux complexes vestibulaires deviennent asymétriques même au repos : ce signal neural erroné conduit donc à une illusion de mouvement, et à des réflexes posturaux générés pour contrebalancer ces sensations vertigineuses.
En fonction des pathologies, les sensations vertigineuses peuvent se révéler très variables. Elles traduisent cependant toujours le fait qu’il existe un déséquilibre qui, provenant de l’oreille interne ou d’une autre partie du système nerveux central, empêche désormais le cerveau de correctement référencer la position et les mouvements du corps dans l’espace.
Avec l’âge, l’ensemble des systèmes impliqués dans l’équilibre perdent en précision : les acuités visuelles et proprioceptives diminuent, ainsi que la force musculaire, et souvent l’activité décroît. À partir de ces informations globalement moins précises, il devient plus difficile pour le cerveau de contrôler la position du corps dans l’espace. Les risques de chute, avec leurs conséquences potentiellement dramatiques, augmentent.
Pour les patients pris de vertiges, quel que soit leur âge, la perte de contrôle est angoissante : se tenir debout ou marcher devient une tâche dangereuse et épuisante.
Les causes des vertiges et des troubles de l’équilibre sont variées : pathologies neurologiques (traumatismes, AVC, sclérose en plaques), atteintes de l’oreille interne (vertige positionnel bénin, maladie de Ménière, labyrinthite), du nerf vestibulaire (névrite, neurinome), ou du cortex (migraine vestibulaire). Le diagnostic repose sur l’examen clinique et l’interrogatoire, mais la diversité des causes complique la prise en charge.
La rééducation vestibulaire menée par des kinésithérapeutes spécialisés aide le cerveau à compenser les signaux erronés en s’appuyant sur les informations sensorielles visuelles et proprioceptives (on parle de substitution sensorielle), et sur le contrôle moteur volontaire, restaurant ainsi la confiance dans le mouvement.
En effet, les recherches menées ces dernières années ont montré que lors de mouvements volontaires, le cerveau peut prédire, anticiper les conséquences du mouvement et ce faisant affiner le codage vestibulaire : continuer à bouger et solliciter son corps et son cerveau est donc essentiel pour aider à résoudre les vertiges.
Bien qu’il existe quelques ORL spécialisés et des kinésithérapeutes vestibulaires pour ce type de rééducation, les soignants sont globalement insuffisamment formés aux vertiges, et les centres d’explorations fonctionnelles et de prise en charge spécialisés sont trop peu nombreux, et géographiquement mal répartis. Cette situation conduit souvent à une longue errance diagnostique : plusieurs mois, voire des années, peuvent séparer les premiers symptômes et la prise en charge effective du patient.
À lire aussi : Chutes, rééducation… : la réalité virtuelle au service de l’équilibre ?
Autre difficulté, le vestibule est difficile à observer : les organes vestibulaires, de petite taille, sont logés dans l’os temporal et peu accessibles à l’examen. L’imagerie médicale progresse mais elle reste l’apanage des rares centres spécialisés. D’où un besoin urgent de mieux informer, former, structurer le parcours de soins, et investir dans la recherche et les traitements innovants.
Le groupement de recherches CNRS « Vertiges » a réuni pendant dix ans ORL, neurologues, radiologues, kinésithérapeutes et chercheurs pour améliorer la compréhension des pathologies et ainsi la prise en charge des patients. Cette amélioration passera par une meilleure description des mécanismes physiopathologiques : dans la majorité des cas, les causes initiales de la maladie restent en effet inconnues.
Les chercheurs travaillent à la mise au point de modèles comme les organoïdes, des cellules en culture reproduisant certains aspects d’un organe (ici les organes de l’oreille interne) pour des tests pharmacologiques. Ils développent également des modèles animaux qui permettent de comprendre les mécanismes cellulaires et multisensoriels de la compensation vestibulaire, ou de reproduire les maladies génétiques à l’origine de surdités congénitales et de troubles de l’équilibre chez l’enfant, afin de mettre au point de nouvelles options thérapeutiques comme la thérapie génique.
Des initiatives sont également en cours pour pérenniser ces recherches via des regroupements régionaux, comme en Île-de-France le pôle « Paris Vestibulaire », et la mise en place prochaine au niveau national d’un Institut de Recherche sur l’Équilibre et les Vertiges qui poursuivra la dynamique créée au sein de la communauté des soignants, chercheurs et enseignants-chercheurs en otoneurologie vestibulaire.
La « Semaine de l’équilibre et du vertige » (14-21 septembre 2025) sensibilise aux États-Unis, en Europe et au Maghreb à ces pathologies vestibulaires, sous l’impulsion en France d’un Groupement de Recherche du CNRS. L’objectif de cette communauté : mieux soutenir les patients, faire connaître les enjeux scientifiques et médicaux et structurer l’enseignement et la recherche sur le sujet.
Mathieu Béraneck participera à un échange sur le thème « Vertiges, quand le cerveau perd l’équilibre » le samedi 27 septembre, dans le cadre de l’événement scientifique Sur les épaules des géants qui se tient du 25 au 27 septembre au Havre.
Mathieu Beraneck est Directeur de recherche au Centre National de la Recherche Scientifique. Il est responsable d'équipe à l'université Paris Cité, et professeur associé à la George Washington University. Il a reçu pour ses recherches des financements de l'Agence National de la Recherche (ANR), du Centre National d'Etudes Spatiales (CNES), et de l'Université Paris Cité.