04.06.2025 à 16:05
Kevin Parthenay, Professeur des Universités en science politique, membre de l'Institut Universitaire de France (IUF), Université de Tours
Rafael Mesquita, Professeur Associé à l’Université Fédérale du Pernambuco, Brésil
The United Nations Ocean Conference (UNOC 3) will open in Nice, France, on June 9, 2025. It is the third conference of its kind, following events in New York in 2017 and Lisbon in 2022. Co-hosted by France and Costa Rica, the conference will bring together 150 countries and nearly 30,000 individuals to discuss the sustainable management of our planet’s oceans.
This event is presented as a pivotal moment, but it is actually part of a significant shift in marine governance that has been going on for decades. While ocean governance was once designed to protect the marine interests of states, nowadays it must also address the numerous climate and environmental challenges facing the oceans.
Media coverage of this “political moment” however should not overshadow the urgent need to reform the international law applicable to the oceans. Failing that, this summit will risk being nothing more than another platform for vacuous rhetoric.
To understand what is at stake, it is helpful to begin with a brief historical overview of marine governance.
Ocean governance changed radically over the past few decades. The focus shifted from the interests of states and the corresponding body of international law, solidified in the 1980s, to a multilateral approach initiated at the end of the Cold War, involving a wide range of actors (international organizations, NGOs, businesses, etc.).
This governance has gradually moved from a system of obligations pertaining to different marine areas and regimes of sovereignty associated to them (territorial seas, exclusive economic zones (EEZs), and the high seas) to a system that takes into consideration the “health of the oceans.” The aim of this new system is to manage the oceans in line with the sustainable development goals.
Understanding how this shift occurred can help us grasp what is at stake in Nice. The 1990s were marked by declarations, summits and other global initiatives. However, as evidenced below, the success of these numerous initiatives has so far been limited. This explains why we are now seeing a return to an approach more firmly rooted in international law, as evidenced by the negotiations on the international treaty on plastic pollution, for example.
The law of the sea emerged from the Hague Conference in 1930. However, the structure of marine governance gradually came to be defined in the 1980s, with the adoption of the United Nations Convention on the Law of the Sea (UNCLOS) in 1982.
UNOC 3 is a direct offshoot of this convention: discussions on sustainable ocean management stem from the limitations of this founding text, often referred to as the “Constitution of the Seas”.
UNCLOS was adopted in December 1982 at the Montego Bay Convention in Jamaica and came into force in November 1994, following a lengthy process of international negotiations that resulted in 60 states ratifying the text. At the outset, the discussions focused on the interests of developing countries, especially those located along the coast, in the midst of a crisis in multilateralism. The United States managed to exert its influence in this arena without ever officially adopting the Convention. Since then, the convention has been a pillar of marine governance.
It established new institutions, including the International Seabed Authority, entrusted with the responsibility of regulating the exploitation of mineral resources on the seabed in areas that fall outside the scope of national jurisdiction. UNCLOS is the source of nearly all international case law on the subject.
Although the convention did define maritime areas and regulate their exploitation, new challenges quickly emerged: on the one hand, the Convention was essentially rendered meaningless by the eleven-year delay between its adoption and implementation. On the other hand, the text also became obsolete due to new developments in the use of the seas, particularly technological advances in fishing and seabed exploitation.
The early 1990s marked a turning point in the traditional maritime legal order. The management of the seas and oceans came to be viewed within an environmental perspective, a process that was driven by major international conferences and declarations such as the Rio Declaration (1992), the Millennium Declaration (2005), and the Rio+20 Summit (2012). These resulted in the 2030 Agenda and the Sustainable Development Goals (SDGs), the UN’s 17 goals aimed at protecting the planet (with SDG 14, “Life Below Water”, directly addressing issues related to the oceans) and the world’s population by 2030.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
The United Nations Conference on Environment and Development (UNCED, or Earth Summit), held in Rio de Janeiro, Brazil, in 1992, ushered in the era of “sustainable development” and, thanks to scientific discoveries made in the previous decade, helped link environmental and maritime issues.
From 2008 to 2015, environmental issues became more important as evidenced by the regular adoption of environmental and climate resolutions.
Biodiversity and the sustainable use of the oceans (SDG 14) are the two core themes that became recurring topics in the international agenda since 2015, with ocean-related issues now including items like acidification, plastic pollution and the decline of marine biodiversity.
The United Nations General Assembly resolution on oceans and the law of the seas (LOS is a particularly useful tool to acknowledge this evolution: drafted annually since 1984, the resolution has covered all aspects of the United Nations maritime regime while reflecting new issues and concerns.
Some environmental terms were initially absent from the text but have become more prevalent since the 2000s.
This evolution is also reflected in the choice of words.
While LOS resolutions from 1984 to 1995 focused mainly on the implementation of the treaty and the economic exploitation of marine resources, more recent resolutions have used terms related to sustainability, ecosystems, and maritime issues.
As awareness of the issues surrounding the oceans and their link to climate change has grown, the oceans gradually became a global “final frontier” in terms of knowledge.
The types of stakeholders involved in ocean issues have also changed. The expansion of the ocean agenda has been driven by a more “environmentalist” orientation, with scientific communities and environmental NGOs standing at the forefront of this battle. This approach, which represents a shift away from a monopoly held by international law and legal practitioners, clearly is a positive development.
However, marine governance has so far relied mainly on non-binding declaratory measures (such as the SDGs) and remains ineffective. A cycle of legal consolidation toward a “new law of the oceans” therefore appears to be underway and the challenge is now to supplement international maritime law with a new set of measures. These include:
the adoption of the Agreement on the Conservation and Sustainable Use of Marine Biological Diversity in Areas Beyond National Jurisdiction (known as the BBNJ Agreement) aiming to protect marine resources in the high seas;
the negotiation of a treaty on marine plastic pollution, still in progress and not finalized yet;
the agreement on fisheries subsidies adopted by the World Trade Organization (WTO) to preserve fish stocks, which so far has failed to be fully implemented;
lastly, the Seabed Authority’s Mining Code, designed to regulate seabed mining.
Of these agreements, the BBNJ is arguably the most ambitious: since 2004, negotiators have been working toward filling the gaps of the United Nations Convention on the Law of the Sea (UNCLOS) by creating an instrument on marine biodiversity in areas beyond national jurisdiction.
The agreement addresses two major concerns for states: sovereignty and the equitable distribution of resources.
Adopted in 2023, this historic agreement has yet to enter into force. For this to happen, sixty ratifications are required and to date, only 29 states have ratified the treaty (including France in February 2025, editor’s note).
The BBNJ process is therefore at a crossroads and the priority today is not to make new commitments or waste time on complicated high-level declarations, but to address concrete and urgent issues of ocean management, such as the frantic quest for critical minerals launched in the context of the Sino-American rivalry, and exemplified by Donald Trump’s signing of a presidential decree in April 2025 allowing seabed mining – a decision that violates the International Seabed Authority’s well established rules on the exploitation of these deep-sea resources.
At a time when U.S. unilateralism is leading to a policy of fait accompli, the UNOC 3 should, more than anything and within the framework of multilateralism, consolidate the existing obligations regarding the protection and sustainability of the oceans.
Kevin Parthenay is a member of the Institut Universitaire de France (IUF).
Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.06.2025 à 13:59
Jean-Robert Raviot, Professeur de civilisation russe et soviétique, Université Paris Nanterre – Université Paris Lumières
Taline Ter Minassian, Historienne, professeure des universités. Co-directrice de l'Observatoire des États post-soviétiques jusqu'en 2024., Institut national des langues et civilisations orientales (Inalco)
À l’issue de la Première Guerre mondiale, l’effondrement de l’Empire austro-hongrois et de l’Empire russe a favorisé l’émergence d’une Grande Roumanie, avec le soutien actif de la France.
Le second tour de l’élection présidentielle roumaine du 18 mai 2025, qui s’est soldé par la victoire du candidat libéral pro-européen, le maire de Bucarest Nicusor Dan, s’est déroulé dans un climat de grande tension. Le candidat d’extrême droite George Simion, vaincu au second tour après avoir récolté 40 % des voix au premier (deux fois plus que Nicusor Dan), a notamment dénoncé des « ingérences françaises » en faveur de son adversaire. Rappelons que ce second scrutin intervenait quelques mois après que la Cour constitutionnelle a annulé, le 6 décembre 2024, le premier tour de la présidentielle organisé le 1ᵉʳ décembre et dont le résultat aurait été, selon les juges, faussé par une opération d’influence russe.
Des accusations du PDG de Telegram Pavel Durov, qui prétend que Nicolas Lerner, le patron de la DGSE, lui aurait « demandé de bannir des voix conservatrices en Roumanie avant les élections », jusqu’au soutien marqué d’Emmanuel Macron au maire de Bucarest, il flotte sur le feuilleton politique roumain comme un parfum d’« entre-deux-guerres ».
À cette époque, le tableau idéalisé de la bonne entente de la France avec sa petite sœur latine avait reçu quelques coups de canif. Pourtant, en 1918, la France avait contribué de manière décisive à la création de la Grande Roumanie. Les accusations d’ingérence visant Paris lors de la récente présidentielle roumaine s’inscrivent en fait dans une certaine profondeur historique… et géographique.
Peu avant le Printemps des peuples de 1848, alors que les territoires destinés à constituer la Roumanie contemporaine sont partagés entre l’Empire russe et l’Empire ottoman, les patriotes roumains avaient été les auditeurs éblouis du cours professé par Jules Michelet au Collège de France sur la Révolution française.
Autour de l’historien visionnaire, ils formèrent le « Cercle du Collège de France » et inspirèrent à Michelet ses Légendes démocratiques du Nord (1853). Peu après la guerre de Crimée (1853-1866), Napoléon III suscita la naissance de la Roumanie en favorisant l’union des principautés de Moldavie et de Valachie en 1859.
Le soutien de la France à la nation roumaine devait encore se préciser durant la Première Guerre mondiale. C’est alors que la France apporta un appui décisif à la construction de la « Grande Roumanie ». Ainsi, la question de l’influence française sur l’élection présidentielle roumaine de 2025 n’est pas inédite au regard de la longue durée, car en 1918 la Grande Roumanie fut constituée avec le soutien des réseaux militaires français, en particulier avec l’appui du maréchal Foch et du général Berthelot, chef de la mission militaire française en Roumanie, pour faire barrage à la « menace rouge ».
Le nom d’Emmanuel de Martonne est sans doute familier à toutes les générations d’écoliers, de collégiens, de lycéens et d’étudiants qui ont connu, au XXe siècle, les magnifiques cartes murales de la France, de l’Europe et du monde suspendues dans les classes des écoles primaires jusque dans les amphithéâtres universitaires. Mais si son nom s’est imprimé dans le cerveau de générations de jeunes Français, ces derniers ignorent en général que ce grand universitaire participa de manière déterminante au tracé des frontières de la Grande Roumanie.
Gendre du grand géographe Paul Vidal de la Blache, Emmanuel de Martonne (1873-1955) fut un éminent représentant de la « République des universitaires » alors à son apogée. Comme quelques autres universitaires qui furent mobilisés en tant qu’experts pendant la Première Guerre mondiale et lors de la Conférence de la paix de 1919, son parcours et son engagement s’inscrivent dans une certaine tradition proroumaine de l’intelligentsia française.
Alors que ce normalien agrégé se destinait initialement à l’étude de la géomorphologie, de Martonne fit de l’une des provinces roumaines, la Valachie, le sujet d’une thèse de géographie régionale d’inspiration vidalienne. En effet, dans son célèbre Tableau de la géographie de la France (1903), Vidal de la Blache faisait des régions ou des différents « pays » une échelle d’observation du territoire national. De là naquirent chez de Martonne un « terrain » et un véritable engagement pour ce pays exploré à pied au cours de nombreuses excursions géographiques. De Martonne n’a pourtant rien du tempérament de Michelet : excessivement sérieux, froid, voire rude, il se distingue par sa « prudence doctrinale » et sa méfiance à l’égard des « conceptions systématiques ».
Durant la Première Guerre mondiale, Emmanuel de Martonne, âgé d’une quarantaine d’années, est déjà parvenu au zénith de sa carrière. Il ne part pas au front, mais ses étudiants adressent à leur « cher Maître », du fond des tranchées, des descriptions émouvantes de strates géologiques rappelant les souvenirs heureux de leurs études et de leurs excursions d’avant-guerre. En 1916, la Roumanie – dont l’indépendance avait été reconnue par le traité de Berlin qui mit un terme à la guerre russo-turque de 1877-1878 – entre tardivement en guerre, dans le camp de l’Entente. Emmanuel de Martonne voit alors sa passion roumaine transformée en sujet géopolitique d’une actualité brûlante.
Parmi d’autres universitaires, il est mobilisé comme expert au sein du Comité d’études, un cercle de pensée fondé en février 1917 sous l’impulsion d’Aristide Briand, chargé de mettre en forme les buts de guerre français en Europe et au Moyen-Orient au cas où la victoire entraînerait le démantèlement de l’Empire austro-hongrois et de l’Empire ottoman.
Après l’entrée en guerre des États-Unis, la victoire se précise et, à partir de l’automne 1918, le président Wilson se montre plus favorable au projet de démantèlement de l’Empire austro-hongrois. Ce changement, qui donnera naissance aux nouveaux États d’Europe centrale et orientale, constitue également un tournant favorable à la cause du nationalisme roumain.
Les experts américains de l’Inquiry, l’équivalent américain du Comité d’études, envisagent désormais d’octroyer à la Roumanie les régions d’Autriche-Hongrie à peuplement majoritairement roumain, donnant progressivement corps et réalité au projet de la Grande Roumanie. En effet, en 1918, la Roumanie se retrouve, après quelques déboires, dans le camp des vainqueurs. L’effondrement de l’Empire austro-hongrois et de l’Empire russe puis le recul de la Russie bolchévique, entériné par le traité de Brest-Litovsk, donnent l’opportunité d’adjoindre à la Roumanie la Bessarabie, c’est-à-dire la Moldavie actuelle.
Partisan de la dislocation de l’Empire austro-hongrois, Emmanuel de Martonne, devenu en 1918 le secrétaire du Comité d’études, se distingue par son engagement intransigeant en faveur de la cause roumaine.
Pendant la Conférence de la paix, il est convoqué comme expert au sein de la sous-commission Tardieu, qui regroupe les savants américains et français chargés des questions balkaniques. Ses nombreux rapports consacrés au tracé des frontières dans les diverses régions appelées à être intégrées au sein du nouvel État roumain forment un argumentaire géographique solide en faveur de la Grande Roumanie.
Textes, statistiques, enquêtes et cartes à l’appui, il contribue à créer, selon des critères géographiques jugés « modernes », obéissant en premier lieu à la géographie humaine, « un État national réunissant la presque totalité des populations roumaines », « une des réalisations les plus heureuses de l’idée nationale sorties de la Grande Guerre » selon lui.
À l’ouest de la Roumanie, taillant dans le vif d’une véritable mosaïque ethnique afin de permettre l’accès au Danube et aux voies de communication ferroviaires, le géographe dessine le nouveau tracé de la frontière avec la Hongrie et la nouvelle Yougoslavie dans la région extraordinairement complexe du Banat (région de Timisoara), en tentant d’évaluer les statistiques ethniques de la population.
Au nord-ouest, de Martonne, fervent avocat de la cause roumaine, souhaite que la Transylvanie et la Crisana, régions à majorité hongroises, soient intégrées à la Roumanie. Promettant que la Roumanie respectera le droit des minorités si elle fait l’acquisition de ces régions à majorité magyare, il s’appuie sur la théorie du dacianisme, apparue au XIXe siècle et désignant les Daces comme les ancêtres des Roumains et, par conséquent, les limites de la province romaine de Dacie comme le support des revendications territoriales roumaines à l’époque contemporaine. Ce thème historiographique majeur du nationalisme roumain avait pour enjeu territorial la Transylvanie.
Véritable casse-tête, la question de la frontière transylvaine avec la Hongrie suscite un grand nombre de rapports et d’expertises, et plusieurs propositions de tracés. Le premier annexe à la Roumanie 877 000 Hongrois et le second seulement 594 000, mais il invoque constamment le manque de fiabilité de la statistique hongroise « qui exagère le nombre des Hongrois, à la campagne de 5 à 20 %, dans les villes de 15 à 40 % ».
Au sud, la Dobroudja, objet de contentieux entre les Roumains et les Bulgares vaincus de la Première Guerre mondiale, est, selon le géographe, une région qui donne l’image d’un « bariolage ethnique », mais « où la prépondérance de l’élément roumain est évidente ».
Enfin, à l’est, la Bessarabie comprise entre les fleuves Prut et Dniestr correspond à peu près à la Moldavie actuelle : celle-ci n’est apparue que très tardivement au chapitre des revendications nationales roumaines. Dans l’espace laissé vacant par le recul russe, une éphémère république moldave indépendante fut proclamée à Kichinev (Chisinau, en roumain), en janvier 1918, mais elle fut incorporée trois mois plus tard au royaume de Roumanie (9 avril 1918). Il fallait donc adjoindre la Bessarabie à la Roumanie afin de renforcer cette dernière dans son rôle de bastion contre la Russie bolchévique. L’expertise d’Emmanuel de Martonne est sans ambiguïté :
« L’annexion intégrale de la Bessarabie est conforme à la justice ethnique, à l’histoire et à la géographie. Elle est en outre imposée par l’intérêt des populations. »
Doctor honoris causa de l’Université de Cluj en 1929, nommé citoyen d’honneur de la capitale transylvaine, Emmanuel de Martonne a été célébré comme le père de la Grande Roumanie jusqu’à l’époque de Ceausescu comprise, qui organisa des festivités du centenaire de sa naissance en 1973. La faculté des Études européennes de Cluj se trouve aujourd’hui encore dans une rue qui porte son nom.
Il est curieux de constater, au regard de l’actualité récente, que le thème du retour à la Grande Roumanie soit réapparu dans le programme du candidat nationaliste perdant de l’Alliance pour l’unité des Roumains (AUR) George Simion, qui promettait des maisons à bon marché, des prêts à taux zéro et… l’union avec la Moldavie. Érigée avec l’appui sans faille d’Emmanuel de Martonne comme un véritable bastion contre le bolchévisme, la Grande Roumanie fut en effet de nouveau séparée de la Bessarabie après le pacte germano-soviétique, ouvrant la voie à la création en 1944 d’une République soviétique socialiste moldave intégrée à l’URSS, qui allait devenir indépendante en 1991.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.06.2025 à 13:58
Katie Milestone, Senior Lecturer, Music and Culture, Manchester Metropolitan University
Simon Morrison, Senior Lecturer and Programme Leader for Music Journalism, University of Chester
Des sous-sols de la banlieue de Manchester aux plages enflammées d’Ibiza, la boîte de nuit n’a jamais cessé de se réinventer. Avant d’être le lieu de fête par excellence, le club était surtout un refuge pour adolescents, car isolé du monde des adultes. Depuis, la culture du club s’est largement développée et les boîtes de nuit sont devenues de véritables espaces de liberté : une évolution autant sociale qu’artistique.
Quand le rock est arrivé au Royaume-Uni au milieu des années 1950, il y avait très peu d’endroits destinés aux jeunes pour danser sur ce tout nouveau genre musical. Mais, au début des années 1960, des lieux spécialement adaptés pour cela ont commencé à voir le jour dans les villes. Contrairement aux salles de bal, parfois grandioses et opulentes, qui avaient été les lieux de prédilection de la génération précédente, les nouvelles discothèques des années 1960, destinées aux adolescents, étaient le plus souvent situées dans des espaces totalement différents, en matière d’architecture et d’ambiance.
Plusieurs de ces nouvelles discothèques pour jeunes se trouvaient dans les sous-sols de bâtiments plutôt délabrés. Dépourvues des licences requises pour ouvrir un débit de boissons, elles s’adressaient à des jeunes n’ayant pas atteint l’âge légal pour consommer de l’alcool.
La nouveauté de ces espaces se reflétait dans l’incertitude quant à la manière de les décrire : ils étaient parfois qualifiés de « coffee dance clubs », parfois de « continental style ». Pour l'essentiel, ils diffusaient de la musique enregistrée, souvent très énergique, ce qui avait un effet direct sur les danseurs, et qui allait permettre aux adolescents britanniques, dont beaucoup s’identifiaient aux mods (la sous-culture des jeunes stylés qui a fleuri entre le début et le milieu des années 1960), de découvrir des artistes afro-américains de R&B.
Dans notre nouveau livre, Transatlantic Drift : The Ebb and Flow of Dance Music, nous évoquons ces clubs pionniers et les musiciens, interprètes et DJ novateurs, qui ont incité les gens à se réunir et à danser.
Le fait qu’ils soient installés dans des sous-sols renforce l’attrait exercé par les clubs. Les participants se sentaient appartenir à un mouvement clandestin et étaient littéralement cachés du monde des adultes. Pendant quelques années, entre 1963 et 1966, l’hédonisme souterrain a existé sous la surface – et la scène des clubs mods a prospéré. L’architecture de ces espaces offrait aux jeunes danseurs des environnements uniques qui leur permettaient de vivre des expériences particulièrement viscérales.
Il s’agissait d’espaces où régnait souvent une chaleur étouffante, peu éclairés, bondés, remplis de fumée et de sueur, où la musique ricochait sur les surfaces et se répercutait directement sur les corps des danseurs. L’emplacement souterrain est parfois souligné dans le choix des noms de ces clubs : Cavern, Dug Out, Dungeon, Catacombs, Heaven and Hell.
Le Sinking Ship Club de Stockport (sud de Manchester, Angleterre) était situé dans une grotte creusée dans des rochers de grès rouge. La condensation qui retombait sur les danseurs était imprégnée des dépôts minéraux rouges, leur laissant un souvenir sensoriel particulièrement vibrant d’une session de danse ayant duré toute la nuit.
À la fin de l’ère des clubs modernes, en 1966, les stars américaines du R&B Etta James et Sugar Pie DeSanto ont enregistré le titre « In the Basement (Part 1) ». Bien que la chanson fasse référence à une fête dans une maison plutôt qu’à une boîte de nuit, elle reflète l’esprit du milieu des années 1960, l’ère de la danse moderne, et les endroits où elle s’est épanouie. DeSanto, en particulier, était extrêmement populaire auprès des mods.
Outre la tendance à nommer les clubs en référence à leur emplacement souterrain, une autre tendance consistait à les nommer en référence à des lieux situés en dehors du Royaume-Uni, afin de donner un sentiment d’évasion et de glamour.
Il s’agissait souvent de mots d’origine latine comme La Discothèque, La Bodega, ou encore El Partido. Cette référence à l’Europe correspondait à la passion des mods pour le style européen continental. On peut également y voir un signe avant-coureur de ce qui allait se passer au fur et à mesure que ces lieux se transformaient.
La fin du XXe siècle a enfin mis en lumière la culture des clubs. Une glorieuse rencontre entre divers effets spéciaux (musicaux, météorologiques et pharmaceutiques) s’est combinée pour former, pourrait-on dire, la dernière grande « sous-culture spectaculaire ». Dans les années 1980, des rythmes électroniques bruts partis de villes américaines comme Chicago et Detroit ont traversé l’Atlantique, d’abord au compte-gouttes, puis par vagues, et ont investi les clubs européens.
À Ibiza, par exemple, Alfredo Fiorito (qui avait fui les restrictions imposées par la junte dans son Argentine natale) jouait de la house de Chicago et de la techno de Detroit, en plus de son habituelle pop européenne et de l’electronica. Sa toile était la piste de danse de la boîte de nuit Amnesia, où il faisait le DJ tout au long de la nuit et jusqu’au matin. Ce n’est pas tant que son DJ mix ait fait exploser le toit de l’endroit, mais plutôt que l’Amnesia n’avait pas de toit à l’origine.
Au soleil, la vitamine D s’est mélangée a réagi au flux moins naturel de la drogue E dans le corps. La MDMA (ou ecstasy), abrégée en E, présentait une autre combinaison intrigante – cette fois, celle de l’ingéniérie allemande et de l’appropriation américaine. Pour les consommateurs, elle est devenue le parfait filtre pharmaceutique permettant d’apprécier la musique house.
Les Britanniques en vacances à Ibiza en 1987 ont eu une sorte de révélation et ont ramené la culture de la drogue au Royaume-Uni. De retour au pays, les fêtes se sont multipliées, avec notamment des raves illégales dans les fermes et les champs autour de l’autoroute M25 (la plus fréquentée du Royaume-Uni, la « M25 London orbital road » est l’autoroute circulaire de la métropole du Grand Londres, ndlr).
Des événements comme Sunrise, Energy et Biology évitèrent complètement les boîtes de nuit, préférant s’installer en plein air. Les ravers ont découvert que faire la fête au soleil les ramenait à quelque chose de primitif et de païen. Ils ont fait la fête dans et avec la nature, dans un Arden shakespearien reconstitué, alimenté par le soleil d’en haut et l’énergie du sol d’en bas.
C’est ainsi que l’histoire de la culture des clubs a émergé des caves et des sous-sols d’un monde souterrain et nocturne et a trouvé son chemin vers la lumière.
Les répercussions de cette dérive transatlantique, de ce flux musical de rythmes et d’idées, se sont ensuite propagées comme des vagues sonores à travers la planète. Nous pouvons en voir les traces dans des festivals tels que le carnaval de Notting Hill. Nous pouvons également suivre cette aventure qui a quitté les week-ends, puis le Royaume-Uni, pour suivre une piste néo-hippie qui a traversé l’Europe, et en particulier l’Europe de l’Est, jusqu’à la scène trance de Goa et aux fêtes de la pleine lune en Thaïlande.
À Ibiza, les nouvelles lois et réglementations sur les nuisances sonores ont littéralement permis de remettre le toit en place ; mais, ailleurs, l’esprit des raves et de la boule à facette, de la disco al fresco, semble inarrêtable.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.06.2025 à 13:57
Christophe Capuano, Professeur des universités en histoire contemporaine, Université Grenoble Alpes (UGA)
Contrairement à un cliché tenace, à l’approche de l’été, les familles ne s’empressent pas de déposer leurs proches âgés en maison de retraite pour partir en vacances. Pourtant, l’idée d’un entourage égoïste persiste, entretenu par les médias et les politiques au fil de crises, comme celle de la canicule de 2003. Les recherches sur les solidarités familiales dessinent une tout autre histoire. Comment expliquer son invisibilisation ?
Les réticences face à l’adoption d’une loi sur l’accompagnement de la fin de vie réactivent un certain nombre de représentations négatives sur les familles et leur supposé égoïsme. Certaines d’entre elles seraient susceptibles d’encourager, par intérêt, leur parent âgé à recourir à cette aide à mourir – soit pour recevoir un héritage, soit pour ne plus payer l’Ehpad. Quant aux personnes vulnérables concernées, elles seraient davantage susceptibles de la solliciter lorsque le sentiment d’abandon par leurs proches et d’isolement relationnel serait le plus aigu.
Lors de la crise sanitaire du Covid-19 ou de la canicule de l’été 2003, l’opprobre avait déjà été jeté sur les familles soupçonnées de délaisser leurs proches, tant en institution qu’à domicile.
Sans nier la réalité d’un sentiment d’isolement chez certains, il semble nécessaire d’éclairer la réalité de ces solidarités familiales intergénérationnelles. Et surtout de comprendre comment des représentations négatives, construites au cours des deux derniers siècles, se sont renforcées depuis les années 2000.
Les familles sont depuis longtemps soupçonnées de se défausser de leur responsabilité sur la solidarité publique. Cette vision naît avec le développement d’un système d’assistance en France, parallèlement au développement d’une pensée anti-individualiste et moralisante au XIXᵉ siècle.
La solidarité vis-à-vis des personnes âgées relève d’une logique de subsidiarité, fondée notamment sur l’article 205 du Code civil (1804) et l’obligation alimentaire des descendants vis-à-vis des ascendants. L’assistance publique intervient – pour des vieillards de bonnes mœurs et sans ressource – uniquement si les familles sont défaillantes ou trop pauvres pour aider leur parenté. Cela concerne le placement en hospices comme le versement de prestations à domicile, généralisé avec la loi d’assistance du 14 juillet 1905. Selon celle-ci, les sommes versées par les familles pour soutenir leur proche âgé sont défalquées des sommes (pourtant minimes) attribuées par la solidarité publique.
Or, les besoins sont immenses dans une société où il n’existe pas de dispositif de retraite et où les corps sont usés par le travail. De nombreux vieillards sont contraints de demander à entrer en institution pour échapper à la misère et rejoignent ainsi une longue liste d’attente. Dans ce contexte, les familles optent alors massivement pour une aide clandestine : il s’agit de dissimuler aux pouvoirs publics les quelques ressources qu’elles pourraient verser à leurs vieux parents restés à leur domicile.
Cette situation est révélée au grand jour lors de la Première Guerre mondiale lorsque des fils, envoyés sur le front, ne peuvent plus assurer ce transfert secret d’argent. Privées de ce complément financier, de nombreuses personnes âgées sombrent alors dans la misère la plus extrême. L’invisibilisation de ces solidarités au début du siècle a construit le mythe selon lequel les familles abandonneraient leurs proches à leur propre sort ou qu’elles frauderaient pour éviter de faire jouer l’obligation alimentaire ou la récupération sur succession après décès.
Durant l’entre-deux-guerres, le nombre d’entrées en institution continue sa hausse, parallèlement à une suspicion croissante vis-à-vis des familles. Celles-ci font pourtant ce qu’elles peuvent mais la dégradation de la conjoncture et le spectre du chômage rendent plus difficiles d’aider un proche âgé.
Durant l’Occupation et les années 1950, la cohabitation intergénérationnelle augmente pourtant, avec son lot de tensions intrafamiliales, mais elle est contrainte, et due aux circonstances exceptionnelles de la période. Il y a d’abord la nécessité de sortir son parent de l’hospice pour éviter qu’il ne meure de faim puis, après-guerre, une crise aiguë du logement que subissent toutes les générations françaises.
Le fort recul de cette cohabitation à partir des années 1960 et l’augmentation de la part des personnes âgées vivant seules sont lus comme un déclin des solidarités au sein des familles – y compris par les sociologues qui se focalisent sur l’éclatement des liens familiaux contemporains, en parallèle à la hausse des divorces. De leur côté les médecins dénoncent ce qu’ils désignent comme « le syndrome de la canne à pêche » : le dépôt à l’hôpital de leur proche âgé par les familles pour les vacances.
Ces condamnations moralisatrices et culpabilisantes masquent pourtant une autre réalité : le manque criant de soutien des pouvoirs publics aux familles aidantes et l’absence de dispositifs de répit pour permettre à ces dernières de souffler quelques semaines. Par ailleurs, les mutations sociales renforcent l’invisibilité des solidarités. La cohabitation intergénérationnelle recule avec la sortie de la crise du logement, les personnes âgées, en meilleure santé aspirent à vivre de manière autonome.
Mais vivre seul ne signifie pas vivre de manière isolée. La géographe Françoise Cribier et la sociologue Claudette Collot prouvent au début des années 1970 l’importance de l’habitat de proximité entre les générations. La régularité de visites des enfants adultes permet alors de nouvelles relations d’intimité à distance. À leur suite, plusieurs travaux comme ceux d’Agnès Pitrou montrent l’importance de cette redécouverte des solidarités familiales et de l’habitat choisi.
Se multiplient ainsi les études qui définissent la parenté comme réseau d’entraide. Les sciences sociales utilisent alors, durant les années 1980, l’expression d’« aidants familiaux » : la capacité protectrice de la famille est mise en regard des limites de la protection publique.
Ces travaux insistent sur le rôle attendu et assumé par les familles dans la promotion de la santé des personnes âgées fragiles. Ils utilisent différentes notions empruntées pour partie au monde anglo-saxon : support, secours, soins, assistance.
Les recherches en gérontologie et en sociologie de la santé traitent de la solidarité familiale en termes de soutien ou de support social ; elles mettent aussi au jour l’existence de « générations pivots » ou « générations sandwichs », des générations d’aidants au croisement de l’aide aux aînés et du support aux enfants ou jeunes adultes.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Si les travaux scientifiques sur l’aide familiale font pièce aux représentations d’un désengagement familial, cette vision biaisée continue d’être alimentée par des politiques et dans les médias. Dans le Paravent des égoïsmes, publié en 1989, l’ancienne ministre de la santé et de la famille, Michèle Barzach, reprend le schéma d’un supposé déclin des solidarités, dénonçant un « égoïsme collectif, qui nous mène à un lent dépérissement de la population, et un égoïsme individuel qui, au nom de la solidarité nationale, nous dispense de regarder autour de nous ». Elle condamne également la fin de la cohabitation avec les aînés qui n’aurait pas été remplacée par « d’autres formes de solidarité ». Voilà qui « aurait favorisé l’exclusion des personnes âgées, l’amélioration de leur situation matérielle ne suffisant pas à compenser leur isolement ».
En 1989, pour se prémunir de familles financièrement intéressées, la loi sur l’accueil familial fixe les conditions de rémunérations des familles nourricières, mais en exclut les familles naturelles qui hébergeraient un parent âgé. Durant les années 1990, lors des débats sur la création d’une allocation dépendance, certains sénateurs disent suspecter les familles de vouloir se « décharger de leurs obligations sur l’aide sociale ».
Ces conceptions idéologiques sont réactivées lors de la canicule de 2003 dont l’essentiel des victimes (14 802 morts) a plus de 75 ans. Les dirigeants et les médias accusent à tort les familles d’avoir délaissé leurs proches durant l’été comme le démontre bien l’historien Richard Keller. Ils diffusent cette affirmation alors même que 64 % des personnes sont mortes en institution, notamment en Ehpad.
Durant les années 2000-2020, dans un contexte où l’injonction est au maintien au domicile, les familles qui placent malgré tout leur parent âgé en institution restent soupçonnées de l’abandonner. Et comme le coût de l’hébergement en Ehpad, une fois soustraite l’ASH est à leur charge, elles sont également suspectées d’espérer un séjour le plus court possible. De là à voir certains membres familiaux souhaiter un décès rapide il n’y a qu’un pas, surtout qu’il pourrait être franchi en complicité avec une partie du corps médical qui y verrait une forme de thérapie létale – risques que brandissent les pourfendeurs de la loi sur l’aide à mourir.
C’est oublier pourtant que ces familles – en particulier les femmes aidantes – constituent les principales pourvoyeuses de « care » dans nos sociétés contemporaines, que le proche âgé soit maintenu au domicile ou en établissement. Et qu’une loi sur la fin de vie d’une telle portée sociétale ne peut être acceptée sans que les familles françaises y soient associées et y souscrivent, d’une façon ou d’une autre. C’est à cette condition que cette nouvelle disposition fonctionnera pleinement, comme nous le montrent les exemples belges ou néerlandais.
Cet article s’inscrit dans le projet KAPPA « Conditions d’accès aux aides et politiques publiques de l’autonomie. Origines, implications et perspectives d’évolution de la segmentation par âge », bénéficiant du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Christophe Capuano a reçu des financements de la MIre/Drees et de la CNSA.
03.06.2025 à 16:35
Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris Cité
À quoi les premières sessions du baccalauréat ressemblaient-elles ? Quand le brevet des collèges a-t-il été créé ? À partir de quand l’université s’est-elle féminisée ? En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.
Le recours systématique à l’organisation d’examens et à la collation de « grades » attestés dans des diplômes pour valider les connaissances acquises par l’enseignement est une pratique apparue avec les premières universités médiévales au tournant des XIIe et XIIIe siècles.
L’élément central du dispositif a été la licence qui, de simple acte juridique (l’octroi d’une « autorisation », d’un « droit d’enseigner ») s’est assez vite transformée en « examen » et en « grade » pour se retrouver elle-même encadrée rapidement par deux autres grades, eux-mêmes conférés après examen : le baccalauréat d’abord et la maîtrise ensuite.
Ce dispositif « à trois étages » de validation des connaissances s’est imposé partout. La quasi stabilité du vocabulaire qui permet de le décrire – baccalauréat (certes parfois appelé « determinatio »), licence, maîtrise (ou master) – est la meilleure preuve de sa prégnance qui a survécu jusqu’à nos jours.
Alors que les lycéens passent les dernières épreuves du bac et que les étudiants guettent leurs résultats de fin d’année, retour en cinq questions sur l’histoire des premiers examens du parcours scolaire.
Il a gardé de l’ancien baccalauréat sa face universitaire et il a été le point de départ des baccalauréats dits « généraux » que nous connaissons. Mais avec une grande différence, au début, puisqu’il s’agissait d’un examen entièrement oral dont le jury était uniquement composé d’universitaires.
Le statut du 16 février 1810 précise que les examinateurs du baccalauréat doivent être au nombre de trois universitaires. Cet examen oral porte sur « tout ce que l’on enseigne dans les hautes classes des lycées » (les deux dernières). Peu à peu, des épreuves écrites sont ajoutées. Surtout, peu à peu également, le jury qui fait effectivement passer l’examen du baccalauréat comporte de moins en moins d’universitaires et de plus en plus de professeurs du secondaire.
Pour Napoléon Ier qui a été le créateur de ce baccalauréat, il s’agissait avant tout d’instruire dans les lycées nouvellement créés les futurs officiers et hauts administrateurs de son Empire. De fait, selon l’expression du philosophe Edmond Goblot, le baccalauréat a été tout au long du XIXe siècle « un brevet de bourgeoisie ».
Même quand la loi Camille Sée de décembre 1880 institue avec le soutien de Jules Ferry des établissements d’enseignement secondaire féminin publics, les filles peuvent très difficilement passer le baccalauréat et suivre un cursus à l’université. En effet, à la différence des lycées de garçons institués en 1802, le plan d’études des lycées de jeunes filles ne comporte pas les disciplines qui sont alors le fleuron de l’enseignement secondaire et du baccalauréat : le latin, le grec et la philosophie.
Mais le baccalauréat n’est pas juridiquement interdit aux jeunes filles ; et certaines d’entre elles le passeront en candidates libres : une trentaine en 1890, une centaine en 1909. La première bachelière qui a obtenu le diplôme du baccalauréat est Julie Daubié, en 1861. Elle sera aussi la première licenciée es lettres française en 1871.
Il a fallu presque un demi-siècle pour qu’un décret en date du 25 mars 1924 aménage officiellement une préparation au baccalauréat présentée comme une section facultative alignée totalement sur le secondaire masculin, tout en perpétuant un enseignement secondaire féminin spécifique institué en 1880 (avec son diplôme spécifique de « fin d’études secondaires », au titre significatif…).
À lire aussi : Histoire : la longue marche des filles vers l’université
Les jeunes filles commencent alors leur « longue marche » conquérante. Dès 1936, les jeunes filles représentent le quart des élèves reçus à l’examen du baccalauréat. En 1965, leur taux d’accès arrive au même niveau que celui des garçons : 13 % de la classe d’âge. Et le pourcentage de jeunes filles inscrites à l’université monte vite : un quart des étudiants en 1930, un tiers en 1950, pour atteindre la moitié en 1981.
D’abord, de quel brevet parle-t-on ? Au XIXe siècle, le « brevet » est d’abord et avant tout un « brevet de capacité » qui certifie que l’on est « en capacité » de devenir maître (ou maîtresse) d’école, et plus généralement un examen qui est parfois requis pour être « en capacité » d’exercer certains métiers appartenant à ce que l’on appellerait maintenant la sphère des cadres intermédiaires.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
En 1947, dès le début de la forte augmentation du taux de scolarisation dans l’enseignement secondaire qui commence sous la IVe République, le « brevet » est transformé en « brevet d’études du premier cycle du second degré » (BEPC), son appellation nouvelle signant ce qu’il est devenu avant tout, à savoir un examen qui scande un cursus secondaire désormais clairement constitué de deux cycles. Mais ce n’est nullement une condition pour passer en classe de seconde et cela ne l’a jamais été jusqu’ici, même si cela est envisagé.
À partir de 1981, le diplôme – désormais intitulé « brevet des collèges » – est attribué sans examen, au vu des seuls résultats scolaires. Mais, en 1986, un « examen écrit » est réintroduit avec le triple objectif annoncé de « revaloriser le diplôme », de « motiver » davantage les élèves, et de les « préparer » à aborder des examens ultérieurement. Lors de sa première mouture, le taux de reçus n’a pas dépassé 49 %.
Le certificat d’aptitude professionnelle (CAP), destiné à sanctionner un apprentissage, est institué en 1911. Cet examen est réservé aux « jeunes gens et jeunes filles de moins de dix-huit ans qui justifient de trois années de pratiques dans le commerce et l’industrie » (décret du 24 octobre 1911). Mais comme le CAP n’a pas été rendu obligatoire ni même associé à une grille de rémunération, le CAP demeurera un diplôme rare dans un premier temps.
Le brevet d’enseignement professionnel (BEP) a été créé en 1966. Il a été institué dans le but de remplacer progressivement le CAP en ayant un caractère plus théorique et moins pratique. Préparé en deux ans après la classe de troisième, il relevait d’une conception plus scolaire de la qualification ouvrière face aux exigences techniques de l’industrie et du commerce modernes.
À lire aussi : Lycée : surmonter les clichés sur la voie professionnelle
Le baccalauréat professionnel, institué en 1985, parachève cette évolution. Selon Jean-Pierre Chevènement, le ministre de l’éducation nationale, il s’agit en premier lieu de répondre aux besoins de la modernisation du pays en formant des « ouvriers » de plus en plus qualifiés, « souvent au niveau du baccalauréat, quelquefois à un niveau supérieur encore »(28 mai 1985).
Le taux de titulaires d’un baccalauréat dans une classe d’âge donnée a été longtemps très restreint ce qui induit qu’il était réservé de fait, sauf exception, aux enfants de milieux socioculturellement favorisés. Il a été de moins de 3 % tout au long de la IIIe République. Et c’est seulement dans les dernières années de cette période que les établissements secondaires publics sont devenus gratuits, alors que c’était déjà le cas pour les établissements primaires publics depuis le début des années 1880.
Il y a eu alors un petit desserrage dans la sélection sociale, concomitant avec la montée du taux de titulaires du baccalauréat dans une classe d’âge. Mais la grande période de l’envolée du taux de bacheliers généraux se situe dans la période gaullienne : on passe de 10 % à 20 % de 1959 à 1969. Il reste à peu près à cet étiage durant presque vingt ans.
Mais un autre baccalauréat est créé en 1970 : le « baccalauréat technologique ». Il va apporter un taux supplémentaire de titulaires d’un baccalauréat dans une classe d’âge : autour de 16 % – un taux qui reste quasiment constant depuis 1989. Les élèves des lycées technologiques sont d’origines socioculturelles plutôt modestes, et leurs destinations scolaires ou sociales aussi.
En 1985, une troisième couche apparaît : le « baccalauréat professionnel ». Le 8 octobre 1985, le ministre Jean-Pierre Chevènement précise qu’il s’agit « d’offrir, à l’issue de la classe de troisième, trois voies d’égale dignité » :
la voie générale, dans laquelle « peuvent s’engager ceux qui ont les capacités de poursuivre des études aux niveaux les plus élevés de l’Université » ;
la voie technologique, « qui conduira la majorité des jeunes qui s’y engagent vers un niveau de technicien supérieur » ;
la « voie professionnelle, qui assure, après l’obtention d’une qualification de niveau V, une possibilité de poursuivre la formation jusqu’au niveau du baccalauréat et même vers un niveau plus élevé ».
Il y a donc l’affirmation par le titre de baccalauréat d’une égalité de dignité, mais non d’un égalité de parcours – même si l’obtention du baccalauréat permet juridiquement l’entrée à l’Université. Entre 1987 et 2008, le taux de bacheliers professionnel dans une classe d’âge atteint 12 %, puis passe de 12 % en 2008 à 24 % en 2012 (en raison d’un changement de curriculum). Il se stabilise ensuite autour de 21 %.
Par ailleurs, dans le cadre de l’horizon annoncé par Jean-Pierre Chevènement de « 80 % d’une classe d’âge au niveau bac en l’an 2000 », on a une nouvelle accélération du taux de titulaires d’un baccalauréat général dans une classe d’âge qui passe de 22 % en 1987 à 37 % en 1995. Ces dernières années, il atteint 43 %.
Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 16:35
Céline Rivière, Professeure des Universités, Chimie des substances naturelles, Université de Lille
Karin Séron, Chercheuse en virologie, Centre national de la recherche scientifique (CNRS)
L’arsenal pharmaceutique dont nous disposons pour combattre les coronavirus demeure très limité. En raison de la grande diversité des composés qu’elles produisent, les plantes pourraient s’avérer de précieuses alliées pour l’étoffer. Y compris les plus communes d’entre elles : des composés anticoronavirus ont en effet été découverts dans l’argousier, un arbuste épineux qui peuple nos rivages.
Cinq ans après l’émergence du SARS-CoV-2, responsable de la pandémie de Covid-19, très peu de molécules antivirales efficaces contre ce coronavirus sont disponibles pour soigner les patients. Malgré les efforts des équipes de recherche académique et pharmaceutiques à travers le monde, le repositionnement des médicaments existants n’a pas donné les résultats escomptés.
Même si la pandémie est désormais considérée comme terminée, et que les vaccins permettent de protéger les personnes les plus à risque de faire des formes sévères, il demeure important de poursuivre les recherches. En effet, les spécialistes s’accordent sur le fait que l’émergence d’autres coronavirus hautement virulents se produira dans le futur.
La poursuite des efforts pour identifier des molécules actives contre cette famille de virus s’impose donc, notamment parce qu’il est particulièrement difficile d’anticiper l’apparition de ces nouveaux épisodes infectieux.
C’est précisément l’objet des recherches que nous menons en collaboration depuis plusieurs années au sein de nos équipes respectives. Nos travaux ont pour but de diversifier les sources de molécules antivirales, d’identifier de nouvelles cibles virales ou cellulaires, ou de découvrir de nouveaux mécanismes d’action.
Ils nous ont permis d’identifier un composé anticoronavirus prometteur à partir d’une plante commune, l’argousier (Hippophae Rhamnoides L., Elaegnaceae). Si ces travaux sont encore préliminaires, ils démontrent l’intérêt d’explorer le potentiel antiviral des molécules présentes dans les végétaux.
Les coronavirus humains se divisent en deux groupes : les coronavirus « peu virulents », responsables de simples rhumes (tels que HCoV-229E, HCoV-HKU-1, ou HCoV-NL63, par exemple), et les coronavirus « hautement virulents ». On trouve parmi ces derniers non seulement le SARS-CoV-2, responsable de la pandémie de Covid-19, mais aussi le SARS-CoV-1, à l’origine en 2003 d’une épidémie qui avait contaminé plus de 8 000 personnes et entraîné près de 800 décès, ou encore le MERS-CoV, qui circule au Moyen-Orient.
Cinq ans après l’apparition du SARS-CoV-2, et malgré un effort international colossal en matière de recherche de molécules efficaces contre cet agent infectieux, un seul antiviral par voie orale est disponible sur le marché français, le Paxlovid. Celui-ci est basé sur l’association de deux composés : le nirmatrelvir, qui inhibe une enzyme nécessaire à la réplication du coronavirus SARS-CoV-2, et le ritonavir, un second inhibiteur d’enzyme qui permet, dans ce contexte, d’augmenter les concentrations sanguines du nirmatrelvir.
Un autre antiviral, le remdesivir, qui inhibe la polymérase virale (autre enzyme indispensable au virus pour se reproduire), est également disponible, mais par voie intraveineuse et seulement pour certains patients.
Cet arsenal limité souligne à quel point il est compliqué de mettre au point des molécules spécifiques dans des délais courts. La recherche d’antiviraux est un processus de longue haleine.
Les plantes représenteraient la seconde plus grande source de biodiversité de notre planète : on estime en effet que le nombre d’espèces végétales est compris entre 300 000 et 500 000. Parmi elles, de 20 000 à 50 000 sont employées en médecine traditionnelle.
Chaque plante a sa propre identité « phytochimique » : elle produit plusieurs centaines de composés dont les structures sont souvent uniques et complexes. Les végétaux constituent donc un réservoir majeur de molécules ayant potentiellement des activités biologiques très différentes les unes des autres.
De nombreux médicaments couramment utilisés à travers le monde s’appuient sur des principes actifs d’origine végétale. Ces derniers peuvent être utilisés après avoir été directement extraits de la plante, comme la morphine, extraite du pavot. Ils peuvent aussi être légèrement modifiés par réaction chimique, comme dans le cas du taxol (un anticancéreux obtenu par hémisynthèse, processus consistant à fabriquer une molécule à partir de composés naturels dont la structure chimique est déjà proche du composé souhaité) à partir d’un précurseur isolé de l’if européen ou des dérivés hémisynthétiques de l’artémisinine, une molécule à activité antipaludique extraite de l’armoise annuelle.
Cependant, à l’heure actuelle, seuls 15 à 20 % des plantes terrestres ont été évaluées pour leur potentiel pharmaceutique. En outre, jusqu’à présent, les molécules d’origine végétale ont été très peu étudiées par les scientifiques recherchant des antiviraux, qu’ils soient dirigés contre les coronavirus ou d’autres familles de virus.
En raison de leur grande diversité et des nombreuses molécules qu’elles produisent, les plantes constituent pourtant une source potentielle d’agents antiviraux très intéressante, pouvant être utilisés tels quels ou légèrement modifiés. Les composés produits par les plantes peuvent aussi inspirer la conception d’antiviraux obtenus par synthèse totale (autrement dit fabriqués entièrement artificiellement). Mais avant d’en arriver là, encore faut-il réussir à identifier les molécules actives, ce qui n’est pas une mince affaire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Identifier une molécule biologiquement active à partir d’organismes vivants n’est pas simple, en raison du très grand nombre de composés qui constituent ces derniers. Cela requiert de passer par un « fractionnement bioguidé » : il s’agit de tester l’activité biologique à chaque étape du processus de séparation des composés (fractionnement). Ce fractionnement peut être accéléré en combinant des approches analytiques et statistiques.
Concrètement, lorsque l’on cherche à identifier un composé actif dans un végétal, la plante concernée est d’abord broyée et mise en contact avec des solvants (eau, éthanol, solvants organiques…). Les filtrats récupérés (appelés « extraits ») sont ensuite séchés. Ils contiennent des centaines, voire des milliers de molécules.
Ces extraits sont ensuite testés sur différents modèles (comme des cultures de bactéries, de champignons, de virus, de cellules tumorales, etc) afin de détecter une activité biologique (on parle de « criblage »).
S’il s’avère qu’un extrait présente un effet, il va subir plusieurs étapes de purification successives, par des techniques dites de chromatographie préparative. Le but est de séparer les nombreux composés différents qu’il contient pour ne garder que celui (ou ceux) responsable(s) de l’activité.
À chaque étape, du début à la fin de ce processus, les nouveaux extraits produits (on parle de « fractions ») à partir de l’extrait précédent sont testés, afin de suivre l’activité biologique. La phase ultime de ce « fractionnement bioguidé » est d’obtenir une molécule active purifiée dont on pourra déterminer la structure par des techniques spectroscopiques.
Nos deux équipes s’intéressent depuis plusieurs années aux plantes extrêmophiles, qui, comme leur nom l’indique, vivent dans des conditions extrêmes. Ces espèces végétales doivent, en partie, leur capacité à survivre dans des milieux difficiles à des molécules spécifiques qui leur permettent de s’y adapter. Nous avons étudié en particulier les plantes halophytes, autrement dit poussant sur des sols qui contiennent des teneurs en sel très élevées.
En 2019, nos travaux ont permis d’identifier un agent antiviral d’origine naturelle, actif contre la réplication du virus de l’hépatite C, nommé dehydrojuncusol ; ce composé phénanthrénique a été découvert dans le rhizome de jonc de mer (Juncus maritimus Lam.) suite au criblage d’une quinzaine d’extraits de plantes halophytes et à un fractionnement bioguidé. Le déhydrojuncusol possède un mécanisme d’action similaire à celui de médicaments efficaces utilisés dans le traitement de l’hépatite C en inhibant une protéine du virus nécessaire à sa réplication.
Cette étude in vitro était la preuve que les plantes halophytes pouvaient contenir des antiviraux puissants aux mécanismes d’action similaires à ceux issus de la chimie de synthèse.
Dans la continuité de ces travaux, vingt-deux plantes strictement halophytes ou tolérantes au sel ont ensuite été collectées sur le littoral des Hauts-de-France, en partenariat avec les gestionnaires de ses sites naturels, dans le but cette fois de rechercher une activité contre les coronavirus humains.
Les extraits réalisés à partir de ces vingt-deux nouvelles plantes, parmi lesquelles la salicorne, la criste marine, la matricaire maritime, l’argousier, l’euphorbe maritime, l’oyat, ou encore le saule des dunes, ont été testés contre le coronavirus HCoV-229E, responsables de rhumes bénins.
Ceux qui se sont révélés les plus actifs ont ensuite été testés contre le coronavirus SARS-CoV-2, responsable de la Covid-19. Le but de ces recherches était en effet d’identifier des antiviraux capables de traiter plusieurs coronavirus humains.
Le meilleur candidat s’est avéré être un extrait d’argousier. Cette plante indigène, relativement tolérante au sel et à caractère envahissant, pousse dans les massifs dunaires de la région des Hauts-de-France.
Après un fractionnement bioguidé, des composés actifs ont pu être isolés et identifiés. Les plus prometteurs se sont avérés capables d’inhiber (in vitro) non seulement l’infection par le SARS-CoV-2, mais aussi par le HCoV-229E.
Ces travaux ont permis de démontrer, au laboratoire, l’intérêt de molécules d’origine végétale dans la lutte contre les maladies humaines d’origine virale. Ils ne constituent cependant que l’étape préliminaire dans le long parcours semé d’embûches qui mène à la mise au point de nouveaux médicaments.
Après cette première étape de mise en évidence de molécules d’intérêt réussie, il faut ensuite poursuivre les essais, en passant notamment à des essais précliniques, autrement dit, sur des cellules humaines primaires isolées de biopsie de patients ou sur des animaux de laboratoire.
Si les résultats sont concluants, viendront ensuite les premières administrations chez l’humain, en général sur un petit nombre de volontaires sains (essais cliniques de phase I). La phase suivante (phase II) consiste à administrer le médicament à un plus grand nombre de patients afin de tester son efficacité, sa posologie et son devenir dans l’organisme (pharmacodynamique). Les essais de phase III portent sur un nombre encore plus grand de participants. Il faudra également les tester in vitro sur d’autres membres de la famille des coronavirus humains, tels que le MERS-CoV.
Toutes ces étapes nécessitent d’importants financements. Lorsqu’il s’agit d’identifier de nouveaux « candidats médicaments » (« drug candidate » en anglais), la finalisation de la recherche préclinique puis le passage en clinique reste le maillon faible, en raison du manque de moyens.
Il est cependant urgent aujourd’hui de trouver les moyens d’amener ces molécules d’intérêt à un stade plus avancé. En effet, dans l’optique de se préparer à une prochaine épidémie ou pandémie de coronavirus humains, disposer de médicaments actifs contre l’ensemble des coronavirus serait un atout majeur.
Rappelons qu’il faut en moyenne quinze ans pour qu’une molécule présentant un intérêt arrive sur le marché, et que le taux d’échec est très important (plus de la moitié des molécules qui arrivent en phase III échouent…). Il n’y a donc pas de temps à perdre. Actuellement, nos équipes continuent à chercher des composés antiviraux dans d’autres collections de plantes.
Nos travaux soulignent aussi que la découverte de molécules bioactives est très étroitement liée à la biodiversité végétale. La problématique de la dégradation des milieux naturels, qui s’est accentuée ces dernières décennies, doit donc être prise en considération dans le cadre des programmes de recherche qui ciblent le potentiel biologique des molécules d’origine naturelle.
Les autrices tiennent à remercier Malak Al Ibrahim, doctorante sur le projet (2021-2024, programme HaloHcoV PEARL), le Dr Gabriel Lefèvre (pour la sélection, la collecte et l’identification des différentes plantes testées), les gestionnaires de sites qui ont participé aux échanges et partagé leurs connaissances, ainsi que l’ensemble des membres des équipes de recherche.
Céline Rivière est membre de sociétés savantes (Association Francophone pour l'Enseignement et la Recherche en Pharmacognosie, Phytochemical Society of Europe). Elle est aussi experte pour l'ANSES. Elle a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.
Karin Séron a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.